WO2016186355A1 - 디스플레이장치 및 이의 동작 방법 - Google Patents

디스플레이장치 및 이의 동작 방법 Download PDF

Info

Publication number
WO2016186355A1
WO2016186355A1 PCT/KR2016/004779 KR2016004779W WO2016186355A1 WO 2016186355 A1 WO2016186355 A1 WO 2016186355A1 KR 2016004779 W KR2016004779 W KR 2016004779W WO 2016186355 A1 WO2016186355 A1 WO 2016186355A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
destination
display
display device
Prior art date
Application number
PCT/KR2016/004779
Other languages
English (en)
French (fr)
Inventor
김순범
김동운
박주현
이수우
홍성민
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to US15/575,252 priority Critical patent/US20180137595A1/en
Publication of WO2016186355A1 publication Critical patent/WO2016186355A1/ko

Links

Images

Classifications

    • G06Q50/40
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N5/00Arrangements or devices on vehicles for entrance or exit control of passengers, e.g. turnstiles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/29Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area inside the vehicle, e.g. for viewing passengers or cargo
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0283Price estimation or determination
    • G06Q30/0284Time or distance, e.g. usage of parking meters or taximeters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/14Travel agencies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • B60K2360/178
    • B60K2360/179
    • B60K2360/21
    • B60K35/81
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0239Online discounts or incentives
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy

Definitions

  • the embodiment relates to a display device, and more particularly, to a display device mounted on a vehicle and a method of operating the same.
  • a red reflector is attached to the inner lower end of the car door so that the vehicle approaching from the rear can recognize when the door is opened, or the door of the car in front of the rear vehicle.
  • the embodiment provides a display device and a method of operating the same, in which a user can intuitively detect a dangerous situation by displaying an image acquired through a camera disposed outside the vehicle when the passenger or driver gets off from the vehicle. .
  • the embodiment provides a display device and a method of operating the same that can transmit the ride information of the passenger to the passenger's family or friends for the safety of the passenger in the commercial vehicle.
  • the embodiment provides a display device and a method of operating the same, which can provide various information to a passenger or a driver riding in the vehicle when the vehicle is driven.
  • a display apparatus which is mounted inside a vehicle, the display apparatus being connected to a camera and receiving a captured image photographed from the outside of the vehicle through the camera;
  • a location information acquisition unit for obtaining location information of the vehicle;
  • a control unit which checks a destination of the vehicle and controls a display time point of an image received through the first communication unit based on the destination of the vehicle and the acquired location information;
  • a display unit configured to display an image captured by the camera according to a control signal of the controller.
  • the display time point may include a time point at which the vehicle approaches within a predetermined radius of the destination.
  • the display time point is a time point of getting off the rider on the vehicle on the basis of the destination.
  • the display time point includes a time point at which a billing event occurs.
  • the controller may display the driving related information of the vehicle together with the photographed image at the display time point through the display unit, and the driving related information may include at least one of moving distance information, moving route information, and fare information. Include.
  • the controller may analyze the photographed image to determine whether a predetermined object exists in the photographed image, and control to output a warning signal according to the existence of the object.
  • the controller may output a door locking signal for locking the door of the vehicle when a predetermined object exists in the captured image.
  • the controller may be configured to display vehicle related information through the display unit when a passenger riding in the vehicle is detected, and the vehicle related information includes vehicle information including at least one of a vehicle number and a vehicle type, Driver information including at least one of a driver's name, a qualification registration number, and affiliation.
  • the apparatus may further include a second communication unit configured to communicate with a first terminal of the rider when the rider riding in the vehicle is detected, wherein the second communication unit is destination information of the rider transmitted from the first terminal. And the controller sets the destination of the vehicle by using the destination information received through the second communication unit.
  • the controller transmits the ride information of the rider to the outside, and the ride information includes ride time, ride vehicle information, driver information, departure point information, destination information, and time required information to a destination. At least one of the.
  • the control unit may transmit the ride information to at least one of the first terminal and a second terminal of another person registered with the first terminal, and the second communication unit may communicate with the first terminal through communication with the first terminal. 2 Obtain information of the terminal.
  • the controller may further transmit additional ride information to any one of the first and second terminals according to a preset notification condition, and the additional ride information may further include real-time current location information according to the movement of the vehicle. Include.
  • the apparatus may further include a third communication unit configured to obtain bill payment information from a bill payment means according to the bill payment event.
  • the controller may be configured to display a predetermined content through the display unit while the vehicle is driven.
  • the content may include at least one of advertisements, news, a map around a destination, and traffic condition information on a moving route of the vehicle. It includes.
  • the operation method of the display apparatus includes the steps of obtaining the driving information of the vehicle; Acquiring current location information of the vehicle; Determining a getting off time of a rider based on the obtained driving information and current location information; And displaying the external captured image of the vehicle when the getting off time arrives.
  • the step of determining the getting off time may include determining whether the vehicle has entered a nearby area within a predetermined radius of the destination based on the current location information, and when the vehicle has entered the nearby area. Determining the time to get off.
  • the method may further include determining whether a billing event has occurred, and the external photographed image is displayed at the time when the billing event occurs.
  • the method may further include outputting a warning signal according to whether a preset object exists in the external captured image.
  • the method may further include communicating with a first terminal of the rider to receive destination information of the rider when the rider riding in the vehicle is detected.
  • the method may further include transmitting ride information of the vehicle to at least one of the first terminal and the second terminal obtained from the first terminal at a preset information transmission time.
  • the vehicle is a destination
  • additional information such as commercials, information around the destination, news information, real-time traffic situation information, movement route information, real-time fare information while driving the vehicle.
  • the passenger when the passenger gets off from the vehicle, displays a peripheral image of the vehicle obtained through the camera, if there is a moving object such as a motorcycle in the vicinity of the vehicle, a warning about this By outputting a signal or changing the locked state so that the vehicle door is not opened, the passenger can be safely protected when the passenger gets off.
  • FIG. 1 is a view schematically showing the configuration of an information providing system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a display system according to an exemplary embodiment.
  • FIG. 3 is a block diagram showing the detailed configuration of the display device 110 shown in FIG.
  • FIG. 4 is a flowchart illustrating a method of operating a display apparatus according to an exemplary embodiment of the present disclosure.
  • FIG. 5 is a flowchart illustrating a method of operating a display apparatus in a riding mode according to an exemplary embodiment of the present disclosure.
  • FIG 6 illustrates vehicle information and driver information provided according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a step-by-step method of setting a destination of a terminal according to an exemplary embodiment of the present invention.
  • FIG. 8 illustrates a destination setting screen displayed through the terminal according to an embodiment of the present invention.
  • 9 and 10 are flowcharts illustrating a method of transmitting ride information of the display apparatus 110 according to an exemplary embodiment.
  • FIG. 11 is a flowchart illustrating a method of operating a display apparatus in a driving mode according to an exemplary embodiment of the present disclosure.
  • 12 to 14 are flowcharts illustrating step-by-step method of selecting content according to an embodiment of the present invention.
  • 15 is a flowchart illustrating a method of controlling a display screen in a driving mode according to an exemplary embodiment of the present disclosure.
  • 16 and 17 show information displayed through the display 1171.
  • FIG. 18 is a flowchart for describing a method of operating a display apparatus in a getting off mode according to an embodiment of the present disclosure.
  • 19 is a view illustrating a display screen in a get off mode according to an embodiment of the present disclosure.
  • 20 and 21 are flowcharts illustrating a method of operating a display apparatus according to another exemplary embodiment.
  • Combinations of each block and each step of the flowchart in the accompanying drawings may be performed by computer program instructions.
  • These computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that the instructions executed by the processor of the computer or other programmable data processing equipment are executed in each block or flowchart of the figure. It will create means for performing the functions described in the steps.
  • These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory.
  • Instructions stored therein may produce an article of manufacture containing instruction means for performing the functions described in each step of each block or flowchart of the figure.
  • Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions for performing the processing equipment may also provide steps for executing the functions described in each block of the figures and in each step of the flowchart.
  • each block or step may represent a portion of a module, segment or code that includes one or more executable instructions for executing a specified logical function (s).
  • a specified logical function s.
  • the functions noted in the blocks or steps may occur out of order.
  • the two blocks or steps shown in succession may in fact be executed substantially concurrently or the blocks or steps may sometimes be performed in the reverse order, depending on the functionality involved.
  • FIG. 1 is a view schematically showing the configuration of an information providing system according to an embodiment of the present invention.
  • an information providing system includes a display system 100, a terminal 200, and a server 300.
  • the display system 100 is mounted on a vehicle to provide information about the vehicle or various additional information for the convenience of a passenger in the vehicle.
  • the display system 100 may include a display device 110 installed inside a vehicle and a camera 120 installed outside the vehicle to acquire a peripheral image of the outside of the vehicle.
  • the terminal 200 is a personal device owned by a passenger in the vehicle, and communicates with the display system 100 to display information for movement of the vehicle and various information for safety or convenience of the passenger. Interchange.
  • the terminal 200 may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), navigation, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • the server 300 communicates with the display system 100 and transmits various information required by the display system 100 to the display system 100.
  • the server 300 stores various contents such as advertisements or news to be displayed through the display apparatus 110 of the display system 100 while driving the vehicle on which the display system 100 is mounted, and accordingly the display The stored content may be transmitted to the system 100.
  • the server 300 may perform some operations performed by the display apparatus 110 constituting the display system 100.
  • an operation performed by the controller 118 during the operation of the display apparatus 110 described below may be performed by the server 300.
  • the display apparatus 110 may perform only a general display function, and the operation of controlling the display function of the display apparatus 110 may be performed by the server 300.
  • the display device 110 includes a communication unit 111, and thus transmits a reception signal (for example, a destination setting signal, a billing signal, a camera image, etc.) from the outside to the server 300.
  • a reception signal for example, a destination setting signal, a billing signal, a camera image, etc.
  • the server 300 may generate a control signal for controlling the operation of the display apparatus 110 based on the received signal transmitted from the display apparatus 110.
  • the display apparatus 110 may receive a control signal generated by the server 300 through the communication unit 111 and perform an operation according thereto.
  • FIG. 2 is a block diagram of a display system according to an exemplary embodiment.
  • the display system 100 may include a display device 110 and a camera 120.
  • the display apparatus 110 is installed inside the vehicle and displays various additional information to be provided to passengers in the vehicle.
  • the display device 110 is shown installed in the rear seat of the vehicle, this is only an embodiment, the installation position of the display device 110 may be changed according to the use target.
  • the display apparatus 110 may be installed in the center fascia of the front seat of the vehicle.
  • the camera 120 is installed outside of the vehicle, and thus photographs the surrounding image of the outside of the vehicle, and transmits the captured surrounding image to the display apparatus 110.
  • the camera 120 is preferably a rear camera to photograph the rear of the vehicle.
  • the present invention is not limited thereto, and the installation position of the camera 120 may be changed according to an embodiment, and the number of mounted cameras may increase.
  • the camera 120 may include a first camera mounted on a door handle of a vehicle, a second camera mounted on a taxi cap when the vehicle is a taxi, and a second camera mounted on a shark antenna as shown in FIG. 2.
  • 3 camera and the 4th camera provided in the trunk of a vehicle, a license plate, etc. may be included.
  • the camera 120 may acquire not only the surrounding image of the outside of the vehicle but also the image of the inside of the vehicle, and thus may further include a fifth camera installed inside the vehicle.
  • FIG. 3 is a block diagram showing the detailed configuration of the display device 110 shown in FIG.
  • the display apparatus 110 may include a communication unit 111, a charge information obtaining unit 112, a state detecting unit 113, an interface unit 114, a memory 115, a user input unit 116, and an output unit. It may include a portion 117.
  • the communication unit 111 may include one or more modules that enable wireless communication between the display apparatus 110 and the wireless communication system (more specifically, the camera 120, the terminal 200, and the server 300). have.
  • the communication unit 111 may include a broadcast receiving module 1111, a wireless internet module 1112, a short range communication module 1113, a location information module 1114, and the like.
  • the broadcast receiving module 1111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may exist in various forms. For example, it may exist in the form of Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).
  • EPG Electronic Program Guide
  • DMB Digital Multimedia Broadcasting
  • ESG Electronic Service Guide
  • DVB-H Digital Video Broadcast-Handheld
  • the broadcast receiving module 1111 may include, for example, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO), and Digital Video Broadcast (DVB-H).
  • Digital broadcast signals can be received using digital broadcasting systems such as Handheld and Integrated Services Digital Broadcast-Terrestrial (ISDB-T).
  • ISDB-T Integrated Services Digital Broadcast-Terrestrial
  • the broadcast receiving module 1111 may be configured to be suitable for not only the above-described digital broadcasting system but also other broadcasting systems.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 1111 may be stored in the memory 115.
  • the wireless internet module 1112 refers to a module for wireless internet access and may be embedded or external to the display device 110.
  • Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.
  • the short range communication module 1113 refers to a module for short range communication.
  • Short-range communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). Can be.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the location information module 1114 is a module for obtaining the location of the display device 110, and a representative example thereof is a GPS (Global Position System) module.
  • GPS Global Position System
  • the wireless internet module 1112 may be wirelessly connected to the camera 120, and thus may receive an image acquired through the camera 120.
  • the image acquired through the camera 120 may be input through a separate image input unit (not shown).
  • the image acquired through the camera 120 may be received as a wireless signal through the wireless internet module 1112, or alternatively, may be input by wire through the separate image input unit.
  • the camera 120 processes an image frame such as a still image or a moving image obtained by an image sensor in a photographing mode.
  • the processed image frame may be displayed on the display 1171.
  • the image frame processed by the camera 120 may be stored in the memory 115 or transmitted to the outside through the communication unit 111. Two or more cameras 120 may be provided according to the use environment.
  • the user input unit 116 generates input data for the user to control the operation of the display apparatus 110.
  • the user input unit 116 may be configured of a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.
  • the output unit 117 is used to generate an output related to visual, auditory, or tactile senses, and may include a display unit 1171, a sound output module 1172, an alarm unit 1173, and the like.
  • the display unit 1171 displays (outputs) information processed by the display apparatus 110. For example, when the vehicle enters the riding mode, the display 1171 displays information of the vehicle or information of a driver who drives the vehicle.
  • the display 1171 displays various contents (advertisements, news, maps, etc.) transmitted from the server 300.
  • the display unit 1171 displays an image captured by the camera 120.
  • the display 1171 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). and at least one of a 3D display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • flexible display flexible display (flexible). and at least one of a 3D display.
  • Some of these displays can be configured to be transparent or light transmissive so that they can be seen from the outside. This may be referred to as a transparent display.
  • a representative example of the transparent display is TOLED (Transparant OLED).
  • the rear structure of the display portion 1171 may also be configured as a light transmissive structure. With this structure, the user can see an object located behind the display apparatus body through the area occupied by the display 1117 of the display apparatus body.
  • two or more display units 1171 may exist.
  • a plurality of display units may be spaced apart from or integrally disposed on one surface of the display apparatus 110, or may be disposed on different surfaces.
  • the display unit 1171 and a sensor for detecting a touch operation form a mutual layer structure (hereinafter, referred to as a “touch screen”)
  • the display unit 1171 may not be used as an output device.
  • the touch sensor may have, for example, a form of a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the display 1171 or a capacitance generated at a specific portion of the display 1117 into an electrical input signal.
  • the touch sensor may be configured to detect not only the position and area of the touch but also the pressure at the touch.
  • the corresponding signal (s) is sent to the touch controller.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the controller 118.
  • the controller 118 may determine which area of the display 1171 is touched.
  • a proximity sensor may be disposed in an inner region of the display device 110 covered by the touch screen or near the touch screen.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact or the force of an electromagnetic field.
  • Proximity sensors (not shown) have a longer life and higher utilization than touch sensors.
  • the proximity sensor examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the touch screen is capacitive, the touch screen is configured to detect the proximity of the pointer by the change of the electric field according to the proximity of the pointer.
  • the touch screen may be classified as a proximity sensor.
  • the proximity sensor (not shown) may be a state detector 113 to be described later.
  • the state detecting unit 113 detects a state of a user located around the display apparatus 110, that is, a state of a passenger in a vehicle.
  • the state detection unit 113 may be implemented as the proximity sensor, thereby detecting whether the passenger approaches the display device 110 to detect the presence of the passenger.
  • the state detection unit 113 may be implemented as a camera (not shown) located inside the vehicle.
  • the state detecting unit 113 may acquire the surrounding image of the display device 110.
  • the controller 118 analyzes the obtained surrounding image to determine whether an object corresponding to the passenger exists in the image and boards the vehicle. The presence of a passenger can be detected.
  • the controller 118 detects not only the presence or absence of the passenger, but also the user's eye area within the object, and accordingly, whether the passenger is in a sleeping state according to the detected eye area. It can be determined.
  • the sound output module 1172 may output audio data received from the communication unit 111 or stored in the memory 115.
  • the sound output module 1172 may also output a sound signal related to a function performed by the display apparatus 110.
  • the sound output module 1172 may include a receiver, a speaker, a buzzer, and the like.
  • the alarm unit 1173 outputs a signal for notifying an occurrence of an event of the display apparatus 110 or a signal for notifying a warning situation.
  • the video signal or the audio signal may also be output through the display unit 1171 or the audio output module 1172, so that they 1171 and 1172 may be classified as part of the alarm unit 1173.
  • the memory 115 may store a program for the operation of the controller 118, and may temporarily store input / output data (eg, a still image, a video, etc.).
  • the memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • a card type memory for example, SD or XD memory
  • RAM Random Access Memory, RAM
  • SRAM Static Random Access Memory
  • ROM Read-Only Memory
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • PROM Programmable Read-Only Memory
  • Magnetic Memory Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the memory 115 may store various contents such as advertisement or news to be displayed through the display 1171.
  • the interface unit 114 serves as a path to all external devices connected to the display device 110.
  • the interface unit 170 receives data from an external device, receives power, transfers the power to each component inside the display device 110, or transmits data within the display device 110 to an external device.
  • wired / wireless headset port, external charger port, wired / wireless data port, memory card port, audio input / output (I / O) port, video input / output (I / O) port, An earphone port or the like may be included in the interface unit 114.
  • the fee information acquisition unit 112 may communicate with a fee meter (not shown) existing in a vehicle in which the display apparatus 110 is installed, and receive information obtained by the fee meter.
  • the obtained information may include usage fee information according to the movement of the vehicle in which the display apparatus 110 is installed, and information on the moving distance.
  • the controller 118 typically controls the overall operation of the display apparatus 110.
  • the controller 118 may include a multimedia module 1181 for playing multimedia.
  • the multimedia module 1181 may be implemented in the controller 118, or may be implemented separately from the controller 118.
  • the controller 118 enters the riding mode according to the detection of the passenger boarding, and controls the overall operation of the display apparatus 110.
  • the controller 118 enters the driving mode and controls the overall operation of the display apparatus 110.
  • the controller 118 enters a drop-off mode and controls the overall operation of the display apparatus 110.
  • the riding mode, driving mode and getting off mode will be described in more detail below.
  • the display device 110 may include a power supply unit (not shown), and the power supply unit may receive power from an external power source or an internal power source under the control of the controller 118, and may be required to operate each component. To supply.
  • Various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using, for example, software, hardware or a combination thereof.
  • the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and the like. It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions. These may be implemented by the controller 180.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments such as procedures or functions may be implemented with separate software modules that allow at least one function or operation to be performed.
  • the software code may be implemented by a software application written in a suitable programming language.
  • the software code may be stored in the memory 115 and executed by the controller 118.
  • the vehicle in which the display apparatus 110 is installed is a taxi and the display apparatus 110 is used by a passenger in the vehicle.
  • the vehicle in which the display apparatus 110 is installed may be a vehicle owned by a general person instead of a taxi, or alternatively, may be a bus.
  • FIG. 4 is a flowchart illustrating a method of operating a display apparatus according to an exemplary embodiment of the present disclosure.
  • the controller 118 detects whether a passenger rides in the vehicle (step 100).
  • the state detecting unit 113 transmits a signal sensed around the display apparatus is installed to the control unit 118, and the control unit 118 determines whether there is a passenger in the vehicle based on the transmitted signal.
  • the control unit 118 determines whether there is a passenger in the vehicle based on the transmitted signal.
  • the signal transmitted from the state detecting unit 113 to the control unit 118 may be a signal indicating whether or not there is an approaching object obtained through the proximity sensor.
  • the signal surrounding the display apparatus 110 may be photographed. It may be a photographed image.
  • the controller 118 analyzes the transmitted captured image, and an object corresponding to the passenger who boards the captured image is included. It may be determined whether there exists or not, and whether or not the passenger is riding according to the presence or absence of the object.
  • control unit 118 enters the riding mode (step 110).
  • the largest difference for each of the plurality of modes is the image displayed on the display 1171.
  • the controller 118 displays the information of the boarded vehicle or the driver information of the boarded vehicle to the display unit 1171. Display.
  • controller 118 obtains destination information of the boarding passenger, and sets a destination of the vehicle based on the destination information.
  • the controller 118 transmits the passenger's boarding information to a terminal owned by the passenger or to a terminal previously registered by the passenger for the safety of the passenger.
  • the controller 118 transmits the passenger's boarding information when the notification event corresponding to the notification condition occurs based on a preset notification condition.
  • the ride information may include information of the vehicle, driver information, departure point information, destination information, travel time information to the destination according to surrounding traffic conditions, and real time current location information according to the movement of the vehicle. have.
  • the boarding information may include time information when the passenger boards the vehicle.
  • the controller 118 enters the driving mode and displays the information corresponding to the driving mode through the display 1171.
  • the information corresponding to the driving mode includes content for providing additional information such as advertisements, news, and maps, current time information, moving distance information of the vehicle, fare information, and traffic condition information on the moving route to the destination. It may include.
  • the controller 118 determines whether getting off of the boarded passenger is detected (step 130).
  • the getting off is detected when the presence of the passenger who has boarded through the state detecting unit 113 is detected, when the current location of the vehicle corresponds to a destination, and a fare payment event occurs. In some cases it can be done.
  • control unit 118 When the passenger's getting off is detected, the control unit 118 enters the getting off mode and performs an operation corresponding to the getting off mode (step 140).
  • the image captured by the camera 120 is preferentially displayed on the display 1117. Accordingly, the passenger who gets off may check whether the object (a human body, a moving object, etc.) exists around the vehicle through the displayed image.
  • FIG. 5 is a flowchart illustrating a method of operating a display apparatus in a riding mode according to an exemplary embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating vehicle information and driver information provided according to an exemplary embodiment of the present disclosure.
  • the controller 118 displays information on a vehicle on which the passenger rides and a driver driving the vehicle through the display 1117 (step 200).
  • the memory 115 may store the information of the vehicle on which the display device 110 is installed and the driver information of the vehicle, and accordingly, the controller 118 at the time when the passenger's ride is detected.
  • the stored vehicle information and driver information may be extracted from the memory 115, and the extracted vehicle information and driver information may be displayed on the display unit 1171.
  • the vehicle information and the driver information may be displayed on the display unit 1171 even when the passenger does not ride in the vehicle. Accordingly, when the passenger boards the passenger, the passenger may check the vehicle information and the driver information displayed on the display unit 1171.
  • FIG 6 shows information displayed through the display screen 600 of the display 1171.
  • the display screen 600 includes a first area 610, a second area 620, and a third area 630.
  • Main information is displayed in the first area 610, sub information is displayed in the second area 620, and additional information related to driving of the vehicle is displayed in the third area 630.
  • the vehicle information and the driver information are displayed through the first area 610 of the display screen 600.
  • the information displayed in the first area 610 may include a driver's name, a vehicle registration number, a vehicle model, a vehicle number, and affiliated company information.
  • Sub information is displayed in the second area 620.
  • the type of information displayed by the boarding passenger may be set.
  • the sub information may be preset by the driver.
  • the second area 620 may receive real-time news from the server 300 and, accordingly, display information on the received news.
  • the news information may be displayed in a slide form in the second area 620.
  • the additional information may display weather information and date information, and may include moving distance information and fare information related to driving.
  • the additional information may further include different information depending on before, during, and after driving of the vehicle.
  • information for inducing short-range communication with a terminal owned by the passenger may be displayed on the additional information for setting a destination for a place where the passenger wants to go.
  • information corresponding to the movement route of the vehicle and current traffic state information on the movement route may be displayed.
  • the controller 118 obtains destination information to which the passenger who boarded the vehicle wants to go (step 210).
  • the destination information may be obtained from the terminal 200 owned by the passenger who has boarded, which will be described in detail below.
  • the controller 118 sets the destination of the vehicle by using the obtained destination information (step 220).
  • the destination setting may mean a destination setting of the navigation.
  • the display device 110 may include a navigation function.
  • controller 118 acquires ride information according to the passenger's ride, and transmits the obtained ride information to the outside (230).
  • the ride information may include the information of the vehicle, the driver information, the departure point information, the destination information, the travel time information to the destination according to the surrounding traffic conditions and the real time current location information according to the movement of the vehicle. .
  • the receiving target for receiving the boarding information may be a passenger terminal 200 used for setting the destination.
  • the controller 118 may obtain terminal information on the acquaintance of the passenger through the terminal 200 and transmit the ride information to an acquaintance terminal corresponding to the acquired terminal information.
  • the controller 118 receives service information, such as a discount coupon, around the destination to which the passenger wants to go, from the server 300, and transmits the received service information to the terminal 200 of the passenger.
  • service information such as a discount coupon
  • FIG. 7 is a flowchart illustrating a method of setting a destination of a terminal according to an exemplary embodiment of the present invention.
  • FIG. 8 is a view illustrating a destination setting screen displayed through the terminal according to an exemplary embodiment of the present invention.
  • a passenger in the vehicle executes an application for setting a destination on a terminal owned by the vehicle (step 300).
  • the application may be an application provided by a smart taxi company corresponding to the vehicle.
  • the terminal 200 displays a destination list including destination information on a place where a user (passenger) frequently goes (step 310).
  • the display screen 800 of the terminal 200 displays destination information on a frequently used place according to the execution of the application.
  • the destination information includes a place where the user actually went directly, and may include a place recommended by the application.
  • the display screen 800 includes a destination search window for searching for any one of a plurality of destinations.
  • the display screen 800 may further include a destination input window (not shown) for searching or directly inputting a new destination other than the displayed destination.
  • a destination input window (not shown) for searching or directly inputting a new destination other than the displayed destination.
  • the terminal 200 receives a new destination selected from the displayed destination list or does not include the new destination list.
  • the destination is directly input (step 320). In other words, the terminal 200 obtains destination information that the user wants to go to.
  • the terminal 200 transmits the obtained destination information to the display apparatus 110 (operation 330).
  • the destination information may be transmitted through short-range communication as the terminal 200 is tagged with the display apparatus 110.
  • the terminal 200 receives information of the vehicle in which the user rides from the display apparatus 110 (operation 340).
  • the vehicle information may be the riding information described above.
  • the terminal 200 transmits the received boarding information to another registered terminal (step 350).
  • the transmission of the ride information may be made by the executed application.
  • 9 and 10 are flowcharts illustrating a method of transmitting ride information of the display apparatus 110 according to an exemplary embodiment.
  • the control unit 118 of the display apparatus 110 obtains information on a vehicle in which the display apparatus 110 is installed (operation 400).
  • the riding vehicle information may include a vehicle model, a vehicle registration date, a vehicle affiliated company, a vehicle number, and the like.
  • the vehicle information may be stored in the memory 115, and accordingly, the controller 118 may extract vehicle information stored in the memory 115.
  • the controller 118 obtains driver information for driving the vehicle (step 410).
  • the driver information may include a driver name, a qualification registration number, and the like.
  • the driver information may be stored in the memory 115, and accordingly, the controller 118 may extract the driver information stored in the memory 115.
  • the controller 118 obtains the set destination information, and accordingly, obtains a travel time from the current location to the destination based on the current traffic situation information (step 420).
  • the controller 118 acquires current location information according to the movement of the vehicle at a predetermined cycle.
  • the controller 118 determines whether a notification condition has occurred. That is, the controller 118 determines whether a transmission event for transmitting ride information including the acquired information to an external terminal has occurred.
  • the transmission event may be generated by any one predetermined notification condition among a plurality of notification conditions.
  • the controller 118 receives the ride vehicle information, the driver information, the departure point information (ride position information), the destination information, the time required information to the destination, and the real time current of the vehicle.
  • the ride information including the location information is transmitted to the external terminal (step 440).
  • the external terminal may be a terminal owned by the passenger.
  • the controller 118 may obtain other terminal information (an acquaintance's terminal information) registered from the terminal owned by the passenger and transmit the ride information to an acquaintance terminal corresponding to the obtained terminal information. .
  • control unit 118 at the time of transmitting the ride information for the first time, the ride vehicle information, driver information, departure information (ride position information), destination information, time required information to the destination and real-time current location information of the vehicle
  • the boarding information including all can be generated and transmitted to the external terminal.
  • controller 118 may transmit only the newly changed information to the external terminal after the initial transmission time except for the information overlapped with the previously transmitted information.
  • the newly changed information includes time required information to the destination and real time current location information.
  • the controller 118 determines a notification condition for transmitting the boarding information (step 510).
  • the controller 118 transmits the ride information to the external terminal at the completion time of the riding mode (step 530).
  • the completion time of the riding mode may be a time point at which the destination to which the vehicle is moved is set.
  • the controller 118 acquires only the changed ride information at a predetermined time interval and continuously transmits the ride information to the external terminal.
  • the controller 118 transmits riding information at a predetermined time elapsed time from the completion of the riding mode (step 550).
  • the controller 118 acquires only the changed boarding information at a predetermined time interval and continuously transmits the boarding information to the external terminal.
  • the controller 118 continuously tracks the current location information of the vehicle, and accordingly, the current location of the vehicle moves between the starting point and the destination.
  • the vehicle determines whether the vehicle has left a path other than the path, and transmits the boarding information at the time when the current location of the vehicle leaves the moving path.
  • the controller 118 determines whether the ride information is transmitted to an external terminal (step 570).
  • a plurality of notification conditions for transmitting the ride information may be simultaneously set, and accordingly, the controller 118 detects an event corresponding to any one notification condition among the set notification conditions. Ride information can be transmitted.
  • the controller 118 may generate a first notification condition, a second notification condition, a third notification condition, and a third notification condition.
  • the boarding information is transmitted to the external terminal.
  • FIGS. 12 to 14 are flowcharts illustrating a method of selecting content according to an exemplary embodiment of the present disclosure. .
  • the controller 118 when the controller 118 enters the driving mode, the controller 118 displays first information through the first area of the display 1171 (operation 6OO).
  • operation 6OO the vehicle information and the driver information are displayed through the first area, and accordingly, the information displayed in the first area is changed to the first information as the driving mode is entered. do.
  • the first information will be described in detail later.
  • the controller 118 displays the second information through the second area of the display 1117 (step 6110).
  • the second information may be news information. Accordingly, the controller 118 receives real-time news information from the server 300 and accordingly displays the received news information through the second area.
  • the controller 118 displays the third information through the third area of the display 1117 (step 6210).
  • the third information may be additional information.
  • the additional information may display weather information and date information, and may include moving distance information and fare information related to driving.
  • the controller 118 calculates a travel time required from the current location to the destination (step 700).
  • the controller 118 displays a content having a reproduction length corresponding to the movement time among the contents stored in the memory 115 or the content existing in the server 300. Select the information (step 710).
  • the selection of the first information is made by displaying a list of contents having a reproduction length corresponding to the travel time, and accordingly receiving a selection signal of any one of the displayed contents from the passenger. Can be.
  • the controller 118 displays the selected first information on the first area of the display 1117 (step 720).
  • the controller 118 displays a list of pre-stored content and content provided by a server (step 800).
  • control unit 118 receives a selection signal of any one specific content on the displayed content list (step 810).
  • the controller 118 sets the selected content as first information, and accordingly displays the set first information through the first area of the display 1117 (step 820). ).
  • the controller 118 communicates with the passenger terminal 200 (step 900).
  • the controller 118 receives request information of the passenger from the terminal 200.
  • the request information may be information about content or an application currently running through the terminal 200.
  • the controller 118 checks the content corresponding to the received request information, and accordingly sets the checked content as the first information to set the first area of the display unit 1171. Display through (step 920).
  • the controller 118 detects a state of the passenger who boards the vehicle, and changes the display condition of the display unit 1171 according to the detected state.
  • 15 is a flowchart illustrating a method of controlling a display screen in a driving mode according to an exemplary embodiment of the present disclosure.
  • the controller 118 determines the state of the passenger based on the image detected by the state detector 113 (step 1000).
  • the controller 118 determines whether the determined state of the passenger is a sleep state.
  • the controller 118 interrupts the output of the display 1117 (step 1020). In other words, the controller 118 transmits only the audio signal of the video signal and the audio signal to be output, but does not transmit the video signal. Alternatively, the controller 118 cuts off the power supplied to the display 1117.
  • control unit 118 outputs only the audio signal in a state in which the output of the video signal is blocked by the output blocking of the display unit 1171 (step 1030).
  • controller 118 may change the brightness level of the display 1171 to the lowest level without blocking the output of the video signal.
  • 16 and 17 show information displayed through the display 1171.
  • the display screen 1600 is divided into a first area 1610, a second area 1620, and a third area 1630.
  • the first information described above is displayed in the first area 1610.
  • the controller 118 sets the same content as the first information as the first information, and sets the first information according to the first region ( 1610 may be displayed.
  • the second area 1620 displays real-time news information received from the server 300.
  • additional information is displayed in the third area 1630.
  • the additional information includes a first additional information display area 1631 in which weather and date information are displayed, and a second in which travel distance and fare information of the vehicle are displayed.
  • the display screen 1700 is divided into a first area 1710, a second area 1720, and a third area 1730.
  • the controller 118 sets the same content as the first information as the first information, and sets the first information according to the first region ( And display on 1710.
  • the first information may be map information including location information on the set destination, and main building information or restaurant information around the destination may be displayed on the map information.
  • the second area 1720 displays real-time news information received from the server 300.
  • additional information is displayed in the third area 1730, wherein the additional information includes a first additional information display area 1731 for displaying weather and date information, and a second for displaying travel distance and fare information of the vehicle.
  • the controller 118 may display information inducing communication with the terminal in the third additional information display area 1735 before entering the driving mode.
  • FIG. 18 is a flowchart illustrating a method of operating a display apparatus in a disengagement mode according to an embodiment of the present disclosure.
  • FIG. 19 is a view illustrating a display screen in the disengagement mode according to an embodiment of the present disclosure.
  • the controller 118 determines whether the passenger's getting off is detected (step 1100).
  • the controller 118 may compare the current location of the vehicle with preset destination information, and detect whether the passenger is getting off accordingly. For example, when the vehicle arrives near the destination, the controller 118 may enter the drop off mode.
  • the controller 118 displays an image captured by the camera 120 through the display 1117 (step 1110).
  • the camera 120 may be installed outside the vehicle to acquire at least one of front, rear, and side images of the vehicle, thereby transmitting the photographed image to the display apparatus.
  • the camera 120 is preferably a rear camera.
  • the controller 118 may perform the getting off detection through another method, not comparing the destination with the current location. For example, the controller 118 may detect a time when an event for payment of a fare occurs as a passenger arrives at a destination as the getting off time.
  • the billing event may be generated by inputting a bill payment button of a meter to confirm the final bill.
  • the controller 118 may display not only an image acquired through the camera 120 through the display 1117, but also finally generated charge information together with the image.
  • the controller 118 may enlarge and display the image and the fare information on the display screen so that the passenger can more easily grasp the image and the fare information.
  • the image 1900 displayed through the display 1171 in the disembarkation mode may include a first region 1910 that displays an external photographed image acquired through the camera 120, and additional information such as news information. It is divided into a second area 1920 for displaying information and a third area 1930 for displaying additional information related to driving.
  • An image captured by the camera 120 is displayed in the first area 1910.
  • the first area 1910 may be divided into a plurality of areas corresponding to the number of the cameras 120. Accordingly, the cameras may be divided into the plurality of areas. Images acquired through 120 may be displayed respectively.
  • a passenger can easily grasp an external situation based on an image displayed through the first area 1910 of the display screen when getting off, and thus can safely get off.
  • the controller 118 analyzes an image displayed through the first area of the display screen (step 1120). That is, the controller 118 compares the pre-stored reference image with the displayed image to determine whether there is a moving object in the displayed image.
  • the controller 118 determines whether an object such as a human body or an object exists in the image according to the analysis result of the displayed image.
  • the first area includes an object 1911 that may pose a danger to the passengers getting off.
  • the controller 118 analyzes the image and determines whether the object 1911 exists in the image.
  • the controller 118 If the object exists in the image, the controller 118 outputs a warning signal indicating the existence of the detected object (step 1140).
  • the controller 118 outputs a lock signal for locking the vehicle door (step 1150). That is, the controller 118 outputs the locking signal so that the door is not opened in order to prevent the door of the vehicle from being opened as the passenger does not recognize the object.
  • the controller 118 outputs an unlocking signal for unlocking the door to allow the passenger to get off (step 1160).
  • the vehicle is a destination
  • additional information such as commercials, information around the destination, news information, real-time traffic situation information, movement route information, real-time fare information while driving the vehicle.
  • the passenger when the passenger gets off from the vehicle, displays a peripheral image of the vehicle obtained through the camera, if there is a moving object such as a motorcycle in the vicinity of the vehicle, a warning about this By outputting a signal or changing the locked state so that the vehicle door is not opened, the passenger can be safely protected when the passenger gets off.
  • 20 and 21 are flowcharts illustrating a method of operating a display apparatus according to another exemplary embodiment.
  • the operation method of the display apparatus described above is a case where the display apparatus is mounted on a vehicle such as a taxi
  • FIGS. 20 and 21 show the case where the display apparatus is mounted on a vehicle such as a school bus.
  • the controller 118 preferentially obtains personal information owned by the user as the passenger (in this case, the passenger may be a student returning to school after returning from a school or a student returning to the school).
  • the card is recognized (step 1200).
  • each registered user is issued a personal information card.
  • the user's origin and destination information is stored in the personal information card, and contact information is further stored.
  • the contact may be a contact of the user himself, preferably a contact of a guardian such as the parent of the user.
  • the controller 118 obtains destination information of the user from the recognized personal information, and sets a moving destination of the vehicle using the obtained destination information (step 1210).
  • the controller 118 obtains a plurality of destination information, and sets an optimal destination movement path for moving to each of the plurality of destinations (step 1220). . Since this is a general navigation technique, a detailed description thereof will be omitted.
  • the controller 118 obtains time required information for moving to each destination based on the set driving route and traffic condition information (step 1230).
  • a user in a vehicle is a first user, a second user, and a third user
  • the first user moves to a first destination
  • the second user moves to a second destination
  • the third user 3 when the set travel route is set in the order of the first destination, the second destination, and the third destination from the current location, the controller 118 takes the first requirement for moving from the current location to the first destination. Expect time.
  • controller 118 estimates a second time required to travel from the current location to the second destination through the first destination, and likewise, from the current location to the third destination via the first and second destinations. Expect the third time required to move.
  • the controller 118 obtains registered terminal information corresponding to each of the personal information (step 1240). That is, the controller 118 obtains terminal information of the first user, terminal information of the second user, and terminal information of the third user (step 1240).
  • the controller 118 transmits ride information of each user to each of the obtained terminals (step 1250).
  • the controller 118 transmits the time required to move to the departure point, the destination, and the destination (first time described above), vehicle information, and driver information to the terminal of the first user. Similarly, the controller 118 transmits the above ride information to the terminals of the second and third users, respectively.
  • the controller 118 obtains next destination information to which the vehicle is to move in the driving mode (step 1300).
  • the controller 118 obtains the getting off information for the user who gets off at the next destination based on the obtained next destination information (step 1310).
  • the controller 118 displays the obtained next destination information and getting off information on the display 1117 (step 1320).
  • the image obtained through the camera 120 is displayed at the time when a specific getting off event occurs as described above.
  • the user input unit 116 includes an input unit such as a rear camera switching key. Accordingly, an image acquired through the camera 120 may be displayed on the display screen at a time desired by the passenger.
  • the vehicle is a destination
  • additional information such as commercials, information around the destination, news information, real-time traffic situation information, movement route information, real-time fare information while driving the vehicle.
  • the passenger when the passenger gets off from the vehicle, displays a peripheral image of the vehicle obtained through the camera, if there is a moving object such as a motorcycle in the vicinity of the vehicle, a warning about this By outputting a signal or changing the locked state so that the vehicle door is not opened, the passenger can be safely protected when the passenger gets off.

Abstract

실시 예에 따른 디스플레이 장치는, 차량 내부에 장착되는 디스플레이장치에 있어서, 카메라와 연결되고, 상기 카메라를 통해 상기 차량의 외부에서 촬영된 촬영 영상을 수신하는 제 1 통신부; 상기 차량의 위치 정보를 획득하는 위치 정보 획득부; 상기 차량의 목적지를 확인하고, 상기 차량의 목적지 및 상기 획득된 위치 정보를 기준으로 상기 제 1 통신부를 통해 수신된 영상의 디스플레이 시점을 제어하는 제어부; 및 상기 제어부의 제어신호에 따라 상기 카메라를 통해 촬영된 영상을 디스플레이하는 디스플레이부를 포함한다.

Description

디스플레이장치 및 이의 동작 방법
실시 예는 디스플레이장치에 관한 것으로, 특히 차량에 장착되는 디스플레이장치 및 이의 동작 방법에 관한 것이다.
차량이 운행함에 따라, 도로상에서 운전자 또는 승객이 승하차를 해야 하는 경우가 빈번하다. 도로상에서 운전자 또는 승객이 승하차시, 차량의 특히 후방에서 차량 또는 오토바이가 접근하고, 이를 인지하지 못하고 승하차하는 경우, 하차하고 있던 사람이 매우 위험하게 되는 문제점이 있다.
이러한 문제점을 해결하기 위하여, 종래에는 자동차 도어의 안쪽 하단부에 적색 반사등을 부착하여 도어가 열려지게 되면 후방에서 접근하는 차량이 이를 인지할 수 있도록 하는 방식을 사용하거나, 후방 차량에게 전방의 자동차의 도어가 열리고 있음을 경고하는 방식이 사용하고 있으나, 이러한 방식은 후방 차량의 운전자가 이를 인지하지 못하면, 쓸모가 없게 되어, 승하차시의 승객의 안전을 충분히 확보하지 못하는 문제점이 있다.
실시 예에서는, 승객이나 운전자가 차량으로부터 하차하는 경우에 차량의 외부에 배치된 카메라를 통해 획득된 영상을 디스플레이하여, 사용자가 직관적으로 위험 상황을 감지할 수 있는 디스플레이장치 및 이의 동작 방법을 제공한다.
또한, 실시 예에서는 영업용 차량에 승차한 승객의 안전을 위하여 상기 승객의 가족이나 친구에게 상기 승객의 승차 정보를 전송할 수 있는 디스플레이장치 및 이의 동작 방법을 제공한다.
또한, 실시 예에서는, 차량의 주행 시에 상기 차량에 승차한 승객이나 운전자에게 다양한 정보를 제공해줄 수 있는 디스플레이장치 및 이의 동작 방법을 제공한다.
제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
실시 예에 따른 디스플레이 장치는, 차량 내부에 장착되는 디스플레이장치에 있어서, 카메라와 연결되고, 상기 카메라를 통해 상기 차량의 외부에서 촬영된 촬영 영상을 수신하는 제 1 통신부; 상기 차량의 위치 정보를 획득하는 위치 정보 획득부; 상기 차량의 목적지를 확인하고, 상기 차량의 목적지 및 상기 획득된 위치 정보를 기준으로 상기 제 1 통신부를 통해 수신된 영상의 디스플레이 시점을 제어하는 제어부; 및 상기 제어부의 제어신호에 따라 상기 카메라를 통해 촬영된 영상을 디스플레이하는 디스플레이부를 포함한다.
또한, 상기 디스플레이 시점은, 상기 목적지의 일정 거리 반경 이내로 상기 차량이 접근한 시점을 포함한다.
또한, 상기 디스플레이 시점은, 상기 목적지를 기준으로 상기 차량에 탑승한 승차자의 하차 시점이다.
또한, 상기 디스플레이 시점은, 요금 결제 이벤트가 발생한 시점을 포함한다.
또한, 상기 제어부는, 상기 디스플레이 시점에 상기 촬영 영상과 함께 상기 차량의 주행 관련 정보가 상기 디스플레이부를 통해 표시되도록 하고, 상기 주행 관련 정보는, 이동 거리 정보, 이동 경로 정보 및 요금 정보 중 적어도 하나를 포함한다.
또한, 상기 제어부는, 상기 촬영 영상을 분석하여, 상기 촬영 영상 내에 기설정된 객체가 존재하는지 여부를 판단하고, 상기 객체의 존재 여부에 따라 경고 신호가 출력되도록 제어한다.
또한, 상기 제어부는, 상기 촬영 영상 내에 기설정된 객체가 존재하면, 상기 차량의 도어 잠김을 위한 도어 잠김 신호를 출력한다.
또한, 상기 제어부는, 상기 차량 내부로 승차하는 승차자가 감지되면, 상기 디스플레이부를 통해 차량 관련 정보가 디스플레이되도록 제어하고, 상기 차량 관련 정보는, 차량 번호 및 차종 중 적어도 하나를 포함하는 차량 정보와, 운전자 이름, 자격 등록 번호 및 소속사 중 적어도 하나를 포함하는 운전자 정보를 포함한다.
또한, 상기 차량 내부로 승차하는 승차자가 감지되면, 상기 승차자의 제 1 단말기와 통신을 수행하는 제 2 통신부를 더 포함하며, 상기 제 2 통신부는, 상기 제 1 단말기로부터 전송되는 상기 승차자의 목적지 정보를 수신하며, 상기 제어부는, 상기 제 2 통신부를 통해 수신되는 목적지 정보를 이용하여 상기 차량의 목적지를 설정한다.
또한, 상기 제어부는, 상기 목적지가 설정되면, 상기 승차자의 승차 정보를 외부로 전송하며, 상기 승차 정보는, 승차 시간, 승차 차량 정보, 운전자 정보, 출발지 정보, 목적지 정보 및 목적지까지의 소요 시간 정보 중 적어도 하나를 포함한다.
또한, 상기 제어부는, 상기 제 1 단말기 및 상기 제 1 단말기에 등록된 타인의 제 2 단말기 중 적어도 하나로 상기 승차 정보를 전송하며, 상기 제 2 통신부는, 상기 제 1 단말기와의 통신을 통해 상기 제 2 단말기의 정보를 획득한다.
또한, 상기 제어부는, 기설정된 알림 조건에 따라 상기 제 1 및 2 단말기 중 어느 하나의 단말기로 추가 승차 정보가 전송되도록 하고, 상기 추가 승차 정보는, 상기 차량의 이동에 따른 실시간 현재 위치 정보를 더 포함한다.
또한, 상기 요금 결제 이벤트 발생에 따라, 요금 결제 수단으로부터 요금 결제 정보를 획득하는 제 3 통신부를 더 포함한다.
또한, 상기 제어부는, 상기 차량의 주행 중에 상기 디스플레이부를 통해 기설정된 콘텐츠가 디스플레이되도록 제어하며, 상기 콘텐츠는, 광고, 뉴스, 목적지 주위의 지도 및 상기 차량의 이동 경로에 대한 교통 상황 정보 중 적어도 하나를 포함한다.
또한, 실시 예에 따른 디스플레이 장치의 동작 방법은 차량의 주행 정보를 획득하는 단계; 상기 차량의 현재 위치 정보를 획득하는 단계; 상기 획득된 주행 정보 및 현재 위치 정보를 기준으로 승차자의 하차 시점을 판단하는 단계; 및 상기 하차 시점이 도래하면, 상기 차량의 외부 촬영 영상을 디스플레이하는 단계를 포함한다.
또한, 상기 하차 시점을 판단하는 단계는, 상기 현재 위치 정보를 토대로 상기 목적지의 일정 거리 반경 이내의 인근 지역으로 상기 차량이 진입하였는지 여부를 판단하는 단계와, 상기 인근 지역으로 상기 차량이 진입한 시점을 상기 하차 시점으로 판단하는 단계를 포함한다.
또한, 요금 결제 이벤트가 발생했는지 여부를 판단하는 단계를 더 포함하고, 상기 외부 촬영 영상은, 상기 요금 결제 이벤트가 발생한 시점에 디스플레이된다.
또한, 상기 외부 촬영 영상 내에 기설정된 객체가 존재하는지 여부에 따라 경고 신호를 출력하는 단계를 더 포함한다.
또한, 상기 차량 내부로 승차하는 승차자가 감지되면, 상기 승차자의 제 1 단말기와 통신을 수행하여 상기 승차자의 목적지 정보를 수신하는 단계를 더 포함한다.
또한, 기설정된 정보 전송 시점에 상기 제 1 단말기 및 상기 제 1 단말기로부터 획득된 제 2 단말기 중 적어도 어느 하나로 상기 차량의 승차 정보를 전송하는 단계를 더 포함한다.
본 발명에 따른 실시 예에 의하면, 승객이 차량에 승차한 경우, 상기 승객이 승차한 차량에 대한 정보 및 운전자의 정보를 표시하고, 상기 차량의 이동 장소에 대한 목적지가 설정되면, 승차 정보를 상기 승객의 지인에게 전송해줌으로써, 상기 승객의 안전성을 확보할 수 있다.
또한, 본 발명에 따른 실시 예에 의하면, 차량의 주행 중에 광고 방송, 목적지 주변 정보, 뉴스 정보, 실시간 교통 상황 정보, 이동 경로 정보, 실시간 요금 정보 등의 다양한 부가 정보를 제공해줌으로써, 상기 차량이 목적지로 이동하는 동안 상기 승객의 지루함을 해소시켜주어 사용자 만족도를 향상시킬 수 있다.
또한, 본 발명에 따른 실시 예에 의하면, 승객이 차량에서 하차하는 경우, 카메라를 통해 획득한 상기 차량의 주변 영상을 표시해주고, 상기 차량의 주변에 오토바이와 같은 이동 물체가 존재하면, 이에 대한 경고 신호를 출력하거나 차량 도어가 열리지 않도록 잠김 상태로 변경해줌으로써, 상기 승객의 하차 시에 상기 승객을 안전하게 보호할 수 있다.
도 1은 본 발명의 실시 예에 따른 정보 제공 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 일 실시 예에 따른 디스플레이 시스템의 구성도이다.
도 3은 도 2에 도시된 디스플레이 장치(110)의 상세 구성을 나타낸 구성도이다.
도 4는 본 발명의 실시 예에 따른 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 승차 모드에서 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시 예에 따라 제공되는 차량 정보 및 운전자 정보를 보여준다.
도 7은 본 발명의 실시 예에 따른 단말기의 목적지 설정 방법을 단계별로 설명하기 위한 흐름도이다.
도 8은 본 발명의 실시 예에 따라 상기 단말기를 통해 표시되는 목적지 설정 화면을 보여준다.
도 9 및 도 10은 본 발명의 실시 예에 따른 디스플레이 장치(110)의 승차 정보 전송 방법을 단계별로 설명하기 위한 흐름도이다.
도 11은 본 발명의 실시 예에 따른 주행 모드에서 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
도 12 내지 14는 본 발명의 실시 예에 따른 콘텐츠 선택 방법을 단계별로 설명하기 위한 흐름도이다.
도 15는 본 발명의 실시 예에 따른 주행 모드에서의 디스플레이 화면 제어 방법을 단계별로 설명하기 위한 흐름도이다.
도 16 및 도 17은 디스플레이부(1171)를 통해 표시되는 정보를 보여준다.
도 18은 본 발명의 실시 예에 따른 하차 모드에서 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
도 19는 본 발명의 실시 예에 따른 하차 모드에서의 디스플레이 화면을 보여준다.
도 20 및 도 21은 본 발명의 다른 실시 예에 따른 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
첨부된 도면의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 도면의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 도면의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 도면의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
도 1은 본 발명의 실시 예에 따른 정보 제공 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 정보 제공 시스템은 디스플레이 시스템(100), 단말기(200) 및 서버(300)를 포함한다.
디스플레이 시스템(100)은 차량에 장착되어, 상기 차량에 대한 정보나, 상기 차량에 탑승한 승객의 편의를 위한 다양한 부가 정보를 제공해준다.
디스플레이 시스템(100)은 차량 내부에 설치되는 디스플레이장치(110)와, 차량 외부에 설치되어 상기 차량 외부의 주변 영상을 획득하는 카메라(120)를 포함할 수 있다.
단말기(200)는 상기 차량 내부에 탑승한 승객이 소유한 개인 기기이며, 상기 디스플레이 시스템(100)과 통신을 수행하여, 상기 차량의 이동을 위한 정보 및 상기 승객의 안전이나 편의를 위한 다양한 정보를 상호 교환한다.
상기 단말기(200)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다.
서버(300)는 상기 디스플레이 시스템(100)과 통신을 수행하여, 상기 디스플레이 시스템(100)에서 필요로 하는 다양한 정보를 상기 디스플레이 시스템(100)에 전송한다.
상기 서버(300)는 상기 디스플레이 시스템(100)이 장착된 차량의 주행 중에 상기 디스플레이 시스템(100)의 디스플레이 장치(110)를 통해 표시될 광고나 뉴스 등과 같은 다양한 콘텐츠를 저장하고, 그에 따라 상기 디스플레이 시스템(100)으로 상기 저장한 콘텐츠를 전송할 수 있다.
또한, 서버(300)는 상기 디스플레이 시스템(100)을 구성하는 디스플레이 장치(110)에서 수행하는 일부 동작을 수행할 수 있다.
다시 말해서, 이하에서 설명되는 디스플레이 장치(110)의 동작 중 제어부(118)에서 수행되는 동작이 상기 서버(300)에 의해 수행될 수 있다.
이에 따라, 상기 디스플레이 장치(110)는 일반적인 디스플레이 기능만을 수행할 수 있으며, 상기 디스플레이 장치(110)의 디스플레이 기능을 제어하는 동작은 상기 서버(300)에 의해 이루어질 수 있다.
즉, 상기 디스플레이 장치(110)는 통신부(111)를 포함하고 있으며, 이에 따라 외부로부터의 수신신호(예를 들어, 목적지 설정 신호, 요금 결제 신호, 카메라 영상 등)를 상기 서버(300)에 전송할 수 있다.
그리고, 상기 서버(300)는 상기 디스플레이 장치(110)로부터 전송되는 수신신호를 토대로 상기 디스플레이 장치(110)의 동작을 제어하기 위한 제어신호를 생성할 수 있다.
또한, 상기 디스플레이 장치(110)는 상기 서버(300)에서 생성된 제어 신호를 상기 통신부(111)를 통해 수신하여 이에 따른 동작을 수행할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 디스플레이 시스템의 구성도이다.
도 2를 참조하면, 디스플레이 시스템(100)은 디스플레이 장치(110) 및 카메라(120)를 포함할 수 있다.
디스플레이 장치(110)는 차량 내부에 설치되며, 상기 차량에 탑승한 승객에게 제공될 다양한 부가 정보를 표시한다.
이때, 도면 상에는 상기 디스플레이 장치(110)가 차량의 뒷 좌석에 설치되어 있다고 도시되었으나, 이는 일 실시 예에 불과할 뿐, 상기 디스플레이 장치(110)의 설치 위치는 이용 대상에 따라 변경될 수 있다.
다시 말해서, 상기 이용 대상이 운전자나 조수석에 탑승한 고객인 경우, 상기 디스플레이 장치(110)는 차량 앞 좌석의 센터페시아에 설치될 수도 있을 것이다.
카메라(120)는 차량의 외부에 설치되며, 그에 따라 상기 차량 외부의 주변 영상을 촬영하고, 그에 따라 상기 촬영한 주변 영상을 상기 디스플레이 장치(110)로 전송한다.
이때, 상기 카메라(120)는 상기 차량의 후방을 촬영하는 후방 카메라임이 바람직하다.
그러나, 본 발명은 이에 한정되지 않고, 상기 카메라(120)의 설치 위치는 실시 예에 따라 변경될 수 있으며, 장착된 카메라의 수도 증가할 수 있을 것이다.
예를 들어, 상기 카메라(120)는 차량의 도어 핸들에 장착된 제 1 카메라, 상기 차량이 택시인 경우에 택시 모자에 장착된 제 2 카메라와, 도 2에 도시된 바와 같은 샤크 안테나에 설치된 제 3 카메라와, 차량의 트렁크나 번호판 등에 설치된 제 4 카메라를 포함할 수 있다.
경우에 따라, 상기 카메라(120)는 상기 차량 외부의 주변 영상뿐 아니라, 차량 내부의 영상도 획득할 수 있으며, 이에 따라 상기 차량 내부에 설치되는 제 5 카메라를 더 포함할 수 있다.
도 3은 도 2에 도시된 디스플레이 장치(110)의 상세 구성을 나타낸 구성도이다.
도 3을 참조하면, 디스플레이 장치(110)는 통신부(111), 요금 정보 획득부(112), 상태 감지부(113), 인터페이스부(114), 메모리(115), 사용자 입력부(116) 및 출력부(117)를 포함할 수 있다.
통신부(111)는 디스플레이 장치(110)와 무선 통신 시스템 사이(보다 구체적으로는, 카메라(120), 단말기(200) 및 서버(300))의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
예를 들어, 통신부(111)는 방송 수신 모듈(1111), 무선 인터넷 모듈(1112), 근거리 통신 모듈(1113) 및 위치정보 모듈(1114) 등을 포함할 수 있다.
방송 수신 모듈(1111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(1111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(1111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈(1111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(115)에 저장될 수 있다.
무선 인터넷 모듈(1112)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로,디스플레이 장치(110)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(1113)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 통신 등이 이용될 수 있다.
위치정보 모듈(1114)은 디스플레이 장치(110)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
상기 무선 인터넷 모듈(1112)는 상기 카메라(120)와 무선 연결되고, 그에 따라 상기 카메라(120)를 통해 획득된 영상을 수신할 수 있다.
또한, 이와 다르게 상기 카메라(120)를 통해 획득된 영상을 별도의 영상 입력부(도시하지 않음)를 통해 입력될 수 있다. 다시 말해서, 상기 카메라(120)를 통해 획득된 영상은 상기 무선 인터넷 모듈(1112)를 통해 무선신호로 수신될 수 있으며, 이와 다르게 상기 별도의 영상 입력부를 통해 유선으로 입력될 수도 있다.
상기 카메라(120)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(1171)에 표시될 수 있다.
카메라(120)에서 처리된 화상 프레임은 메모리(115)에 저장되거나 통신부(111)를 통하여 외부로 전송될 수 있다. 카메라(120)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
사용자 입력부(116)는 사용자가 디스플레이 장치(110)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(116)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
출력부(117)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(1171), 음향 출력 모듈(1172) 및 알람부(1173) 등이 포함될 수 있다.
디스플레이부(1171)는 디스플레이 장치(110)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 차량이 승차 모드에 진입하는 경우, 상기 디스플레이부(1171)는 차량의 정보나 상기 차량을 운전하는 운전자의 정보를 표시한다.
또한, 차량이 주행 모드에 진입하는 경우, 디스플레이부(1171)는 서버(300)로부터 전송된 다양한 콘텐츠(광고, 뉴스, 지도 등)를 표시한다.
또한, 차량이 하차 모드에 진입하는 경우, 디스플레이부(1171)는 카메라(120)로부터 촬영된 영상을 표시한다.
디스플레이부(1171)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(1171)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 디스플레이 장치 바디의 디스플레이부(1171)가 차지하는 영역을 통해 디스플레이장치 바디의 후방에 위치한 사물을 볼 수 있다.
디스플레이 장치(110)의 구현 형태에 따라 디스플레이부(1171)이 2개 이상 존재할 수 있다. 예를 들어, 디스플레이 장치(110)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(1171)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(1171)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(1171)의 특정 부위에 가해진 압력 또는 디스플레이부(1171)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(118)로 전송한다. 이로써, 제어부(118)는 디스플레이부(1171)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
한편, 상기 터치스크린에 의해 감싸지는 디스플레이 장치(110)의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(도시하지 않음)가 배치될 수 있다. 상기 근접 센서(도시하지 않음)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서(도시하지 않음)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서(도시하지 않음)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이때, 상기 근접 센서(도시하지 않음)는 추후 설명할 상태 감지부(113)일 수 있다.
상기 상태 감지부(113)는 상기 디스플레이 장치(110)의 주위에 위치한 사용자, 다시 말해서 차량에 탑승한 승객의 상태를 감지한다.
이에 따라, 상기 상태 감지부(113)는 상기 근접 센서로 구현될 수 있으며, 그에 따라 상기 디스플레이 장치(110)의 주위로 상기 승객이 접근하는지 여부를 감지하여, 상기 승객의 존재 유무를 감지할 수 있다
또한, 상기 상태 감지부(113)는 차량 내부에 위치한 카메라(도시하지 않음)로 구현될 수 있다.
즉, 상기 상태 감지부(113)는 상기 디스플레이 장치(110)의 주변 영상을 획득할 수 있다. 그리고, 상기 상태 감지부(113)에 의해 주변 영상이 획득되면, 제어부(118)는 상기 획득된 주변 영상을 분석하여, 상기 영상 내에 승객에 대응하는 객체가 존재하는지 여부를 판단하여 상기 차량 내에 탑승한 승객의 존재 유무를 감지할 수 있다.
또한, 제어부(118)는 상기 승객의 존재 유무 뿐만 아니라, 상기 객체가 존재하면, 상기 객체 내에서 사용자의 눈 영역을 검출하고, 그에 따라 상기 검출한 눈 영역의 상태에 따라 상기 승객이 수면 상태인지 여부를 판단할 수 있다.
음향 출력 모듈(1172)은 통신부(111)로부터 수신되거나 메모리(115)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(1172)은 디스플레이 장치(110)에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(1172)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(1173)는 디스플레이 장치(110)의 이벤트 발생을 알리기 위한 신호나 경고 상황을 알리기 위한 신호를 출력한다.
상기 비디오 신호나 오디오 신호는 디스플레이부(1171)나 음성 출력 모듈(1172)을 통해서도 출력될 수 있어서, 그들(1171,1172)은 알람부(1173)의 일부로 분류될 수도 있다.
메모리(115)는 제어부(118)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등)을 임시 저장할 수도 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
또한, 메모리(115)는 디스플레이부(1171)를 통해 표시될 광고나 뉴스 등과 같은 다양한 콘텐츠를 저장할 수 있다.
인터페이스부(114)는 디스플레이 장치(110)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 디스플레이 장치(110) 내부의 각 구성 요소에 전달하거나, 디스플레이 장치(110) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(114)에 포함될 수 있다.
요금 정보 획득부(112)는 상기 디스플레이 장치(110)가 설치된 차량 내에 존재하는 요금 미터기(도시하지 않음)와 통신을 수행하여, 상기 요금 미터기에서 획득되는 정보를 수신할 수 있다.
상기 획득되는 정보에는, 상기 디스플레이 장치(110)가 설치된 차량의 이동에 따른 이용 요금 정보와, 이동 거리에 대한 정보를 포함할 수 있다.
제어부(controller, 118)는 통상적으로 디스플레이 장치(110)의 전반적인 동작을 제어한다.
제어부(118)는 멀티 미디어 재생을 위한 멀티미디어 모듈(1181)을 구비할 수도 있다. 멀티미디어 모듈(1181)은 제어부(118) 내에 구현될 수도 있고, 제어부(118)와 별도로 구현될 수도 있다.
제어부(118)는 승객의 탑승이 감지되면, 그에 따라 승차 모드로 진입하여, 상기 디스플레이 장치(110)의 전반적인 동작을 제어한다.
또한, 제어부(118)는 상기 승객이 탑승한 후 이동 위치에 대응하는 목적지가 설정되면, 주행 모드로 진입하여 상기 디스플레이 장치(110)의 전반적인 동작을 제어한다.
또한, 제어부(118)는 상기 탑승한 승객의 목적지 근처로 상기 디스플레이 장치(110)가 장착된 차량이 이동하면, 하차 모드로 진입하여 상기 디스플레이 장치(110)의 전반적인 동작을 제어한다.
상기 승차 모드, 주행 모드 및 하차 모드에 대해서는 하기에서 더욱 상세히 설명하기로 한다.
한편, 디스플레이 장치(110)는 전원 공급부(도시하지 않음)를 포함할 수 있으며, 전원 공급부는 제어부(118)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어부(180)에 의해 구현될 수 있다.
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 소프트웨어 코드는 메모리(115)에 저장되고, 제어부(118)에 의해 실행될 수 있다.
이하에서는 상기 디스플레이 장치(110)가 설치된 차량이 택시이고, 상기 디스플레이 장치(110)가 상기 차량에 탑승한 승객이 이용하는 경우를 가정하여 설명하기로 한다.
그러나, 이는 일 실시 예에 불과할 뿐, 상기 디스플레이 장치(110)가 설치된 차량은 택시가 아닌 일반 개인이 소유한 차량일 수 있고, 이와 다르게 버스일 수도 있을 것이다.
도 4는 본 발명의 실시 예에 따른 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
도 4를 참조하면, 제어부(118)는 차량에 승객이 승차하는지 여부를 감지한다(100단계).
즉, 상태 감지부(113)는 상기 디스플레이 장치가 설치된 주변에서 감지한 신호를 제어부(118)로 전달하며, 상기 제어부(118)는 상기 전달되는 신호를 토대로 상기 차량 내에 승차하는 승객이 존재하는지 여부를 판단한다.
여기에서, 상기 상태 감지부(113)에서 제어부(118)로 전달되는 신호는, 근접 센서를 통해 획득한 접근 물체의 존재 여부를 알리는 신호일 수 있으며, 이와 다르게 상기 디스플레이 장치(110)의 주변을 촬영한 촬영 영상일 수 있다.
이때, 상기 상태 감지부(113)가 상기 촬영 영상을 제어부(118)로 전달하는 경우, 상기 제어부(118)는 상기 전달되는 촬영 영상을 분석하여, 상기 촬영 영상 내에 승차한 승객에 대응하는 객체가 존재하는지 여부를 판단하고, 상기 객체의 존재 유무에 따라 상기 승객의 승차 여부를 감지할 수 있다.
이어서, 상기 판단결과(100단계), 상기 차량 내로 승차한 승객이 감지되면, 상기 제어부(118)는 승차 모드로 진입한다(110단계).
여기에서, 복수의 모드의 각각에 대한 가장 큰 차이는 상기 디스플레이부(1171)에 상기 표시되는 영상이다.
즉, 상기 승차한 승객이 존재하여, 승차 모드로 진입한 경우, 상기 제어부(118)는 상기 승차한 승객에게 상기 승차한 차량의 정보나, 상기 승차한 차량의 운전자 정보를 디스플레이부(1171)에 표시한다.
또한, 제어부(118)는 상기 승차한 승객의 목적지 정보를 획득하고, 그에 따라 상기 목적지 정보를 토대로 차량의 목적지를 설정한다.
또한, 제어부(118)는 상기 목적지가 설정되면, 상기 탑승한 승객의 안전을 위하여, 상기 승객의 승차 정보를 상기 승객이 소유한 단말기 또는 상기 승객이 미리 등록한 단말기로 전송한다.
이때, 제어부(118)는 기설정된 알림 조건을 기준으로 상기 알림 조건에 대응하는 알림 이벤트가 발생하는 시점에 상기 승객의 승차 정보를 전송한다.
여기에서, 상기 승차 정보는, 상기 차량의 정보, 운전자 정보, 출발지 정보, 목적지 정보, 주변 교통 상황에 따른 상기 목적지까지의 이동 소요 시간 정보 및 상기 차량의 이동에 따른 실시간 현재 위치 정보를 포함할 수 있다.
또한, 상기 승차 정보에는 상기 승객이 상기 차량에 승차한 시점의 시간 정보를 포함할 수 있다.
이어서, 제어부(118)는 상기 목적지가 설정되어, 그에 따른 차량의 주행이 시작되면, 주행 모드로 진입하여, 상기 디스플레이부(1171)를 통해 상기 주행 모드에 대응하는 정보가 표시되도록 한다.
여기에서, 상기 주행 모드에 대응하는 정보는, 광고, 뉴스, 지도와 같은 부가 정보를 제공하기 위한 콘텐츠와, 현재 시간 정보, 차량의 이동 거리 정보, 요금 정보 및 목적지까지의 이동 경로 상의 교통 상황 정보를 포함할 수 있다.
이어서, 제어부(118)는 상기 승차한 승객의 하차가 감지되는지 여부를 판단한다(130단계).
여기에서, 상기 하차의 감지는, 상기 상태 감지부(113)를 통해 상기 승차한 승객의 존재가 감지되지 않는 경우, 상기 차량의 현재 위치가 목적지에 대응하는 위치인 경우, 그리고 요금 결제 이벤트가 발생한 경우에 따라 이루어질 수 있다.
그리고, 상기 제어부(118)는 상기 승객의 하차가 감지되면, 하차 모드로 진입하여, 상기 하차 모드에 대응하는 동작을 수행한다(140단계).
여기에서, 상기 하차 모드의 진입은, 상기 카메라(120)를 통해 촬영한 영상을 상기 디스플레이부(1171)를 통해 우선적으로 표시한다. 그에 따라, 상기 하차하는 승객은 상기 표시되는 영상을 통해 상기 차량의 주변에 객체(인체나, 이동 물체 등)가 존재하는지를 확인할 수 있다.
이하에서는, 상기 승차 모드, 주행 모드 및 하차 모드 각각에 대하여 보다 구체적으로 설명하기로 한다.
도 5는 본 발명의 실시 예에 따른 승차 모드에서 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이고, 도 6은 본 발명의 실시 예에 따라 제공되는 차량 정보 및 운전자 정보를 보여준다.
도 5를 참조하면, 제어부(118)는 승객의 승차가 감지되면, 디스플레이부(1171)를 통해 상기 승객이 승차한 차량과 상기 차량을 운전하는 운전자의 정보를 디스플레이한다(200단계).
여기에서, 상기 메모리(115)에는 상기 디스플레이 장치(110)가 설치된 차량의 정보와, 상기 차량의 운전자 정보를 저장될 수 있으며, 그에 따라 상기 제어부(118)는 상기 승객의 승차가 감지된 시점에 상기 저장된 차량 정보 및 운전자 정보를 상기 메모리(115)로부터 추출하고, 상기 추출한 차량 정보 및 운전자 정보를 상기 디스플레이부(1171)를 통해 디스플레이할 수 있다.
이와 다르게, 상기 차량에 승객이 승차하지 않은 상태에서도, 상기 디스플레이부(1171)에는 상기 차량 정보 및 운전자 정보가 디스플레이되고 있을 수 있다. 이에 따라, 상기 승객이 승차한 경우, 상기 승객은 상기 디스플레이부(1171)를 통해 디스플레이되고 있던 차량 정보 및 운전자 정보를 확인할 수 있다.
도 6은 디스플레이부(1171)의 디스플레이 화면(600)을 통해 표시되는 정보를 보여준다.
도 6을 참조하면, 디스플레이 화면(600)은 제 1 영역(610), 제 2 영역(620) 및 제 3 영역(630)을 포함한다.
제 1 영역(610)에는 메인 정보가 표시되고, 제 2 영역(620)에는 서브 정보가 표시되며, 제 3 영역(630)에는 차량의 운행과 관련된 부가 정보가 표시된다.
이때, 상기 차량 정보 및 운전자 정보는 상기 디스플레이 화면(600)의 제 1 영역(610)을 통해 표시된다.
제 1 영역(610)에 표시되는 정보는, 운전자 이름, 차량 등록 번호, 차종, 차량 번호 및 소속사 정보 등을 포함할 수 있다.
제 2 영역(620)에는 서브 정보가 표시되는데, 상기 서브 정보는 상기 승차한 승객에 의해 표시되는 정보의 종류가 설정될 수 있으며, 이와 다르게 운전자에 의해 미리 설정되어 있을 수 있다.
예를 들어, 상기 제 2 영역(620)에는 서버(300)로부터 실시간 뉴스를 수신하고, 그에 따라 상기 수신한 뉴스에 대한 정보를 표시할 수 있다.
이때, 상기 제 2 영역(620)에는 상기 뉴스 정보가 슬라이드 형태로 표시될 수 있다.
제 3 영역(620)에는 상기 차량의 주행과 관련된 부가 정보가 표시된다.
상기 부가 정보에는, 날씨 정보나, 날짜 정보를 표시할 수 있으며, 이 이외에도 주행과 관련된 이동 거리 정보, 요금 정보를 포함할 수 있다.
또한, 상기 부가 정보에는 상기 차량의 주행 전, 주행 중 및 주행 완료에 따라 서로 다른 정보를 더 포함할 수 있다.
여기에서, 상기 차량의 주행 전에는 상기 부가 정보에 상기 승객이 가고자 하는 장소에 대한 목적지 설정을 위해, 상기 승객이 소유한 단말기와의 근거리 통신을 유도하는 정보를 표시할 수 있다.
그리고, 상기 차량의 주행 중에는 상기 차량의 이동 경로에 대응하는 정보 및 상기 이동 경로 상의 현재 교통 상황 정보를 표시할 수 있다.
그리고, 상기 차량의 주행 완료(승객의 목적지에 상기 차량이 도착한 경우) 시에는 상기 차량의 주행에 따른 이용 요금의 결제를 유도하는 정보를 표시할 수 있다.
다시, 도 5를 설명하면, 제어부(118)는 상기 승차 차량 정보 및 목적지 정보가 표시되면, 상기 차량에 승차한 승객이 가고자 하는 목적지 정보를 획득한다(210단계).
여기에서, 상기 목적지 정보는 상기 승차한 승객이 소유한 단말기(200)로부터 획득할 수 있으며, 이에 대해서는 하기에서 상세히 설명하기로 한다.
상기 목적지 정보가 획득되면, 상기 제어부(118)는 상기 획득한 목적지 정보를 이용하여 상기 차량의 목적지를 설정한다(220단계).
여기에서, 상기 목적지 설정은 네비게이션의 목적지 설정을 의미할 수 있다. 이에 따라, 상기 디스플레이 장치(110)는 네이게이션 기능을 포함할 수 있다.
그리고, 제어부(118)는 상기 승객의 승차에 따른 승차 정보를 획득하고, 그에 따라 상기 획득한 승차 정보를 외부로 전송한다(230단계).
여기에서, 상기 승차 정보는 상기 차량의 정보, 운전자 정보, 출발지 정보, 목적지 정보, 주변 교통 상황에 따른 상기 목적지까지의 이동 소요 시간 정보 및 상기 차량의 이동에 따른 실시간 현재 위치 정보를 포함할 수 있다.
그리고, 상기 승차 정보를 수신하는 수신 대상은 상기 목적지 설정을 위해 사용된 승객의 단말기(200)일 수 있다. 또한, 이와 다르게 상기 제어부(118)는 상기 단말기(200)를 통해 상기 승객의 지인에 대한 단말기 정보를 획득하고, 상기 획득한 단말기 정보에 대응하는 지인 단말기로 상기 승차 정보를 전송할 수 있다.
이어서, 제어부(118)는 상기 서버(300)로부터 상기 승객이 가고자 하는 목적지 주변의 할인 쿠폰과 같은 서비스 정보를 수신하고, 그에 따라 상기 수신한 서비스 정보를 상기 승객의 단말기(200)로 전송한다.
도 7은 본 발명의 실시 예에 따른 단말기의 목적지 설정 방법을 단계별로 설명하기 위한 흐름도이고, 도 8은 본 발명의 실시 예에 따라 상기 단말기를 통해 표시되는 목적지 설정 화면을 보여준다.
도 7을 참조하면, 상기 차량에 탑승한 승객은 자신이 소유한 단말기 상에서 목적지 설정을 위한 애플리케이션을 실행한다(300단계). 여기에서, 상기 애플리케이션은 상기 차량에 대응하는 스마트 택시 업체에서 제공하는 애플리케이션일 수 있다.
상기 애플리케이션이 실행되면, 상기 단말기(200)에는 사용자(승객)가 자주 가는 장소에 대한 목적지 정보를 포함하는 목적지 리스트가 표시된다(310단계).
도 8을 참조하면, 단말기(200)의 디스플레이 화면(800)에는 상기 애플리케이션의 실행에 따라 자주 이용한 장소에 대한 목적지 정보가 표시된다.
상기 목적지 정보는 사용자가 실제 직접 갔던 장소를 포함하며, 상기 애플리케이션에서 추천하는 장소를 포함할 수도 있다.
또한, 상기 디스플레이 화면(800)에는 다수의 목적지 중 어느 하나의 목적지를 검색하기 위한 목적지 검색 창을 포함한다.
또한, 이와 다르게 상기 디스플레이 화면(800)에는 상기 표시된 목적지 이외의 새로운 목적지의 검색 또는 직접 입력을 위한 목적지 입력 창(도시하지 않음)을 더 포함할 수 있다.
다시, 도 7을 설명하면, 단말기(200)는 상기 디스플레이 화면(800)을 통해 목적지 리스트가 표시되면, 상기 표시된 목적지 리스트 중 어느 하나의 특정 목적지를 선택받거나, 상기 목적지 리스트에 포함되어 있지 않은 새로운 목적지를 직접 입력받는다(320단계). 다시 말해서, 단말기(200)는 사용자가 가고자 하는 목적지 정보를 획득한다.
이어서, 상기 단말기(200)는 상기 목적지 정보가 획득되면, 상기 획득한 목적지 정보를 상기 디스플레이 장치(110)로 전송한다(330단계).
이때, 상기 목적지 정보의 전송은 상기 단말기(200)가 상기 디스플레이 장치(110)에 태그됨에 따라 근거리 통신을 통해 수행될 수 있다.
이어서, 단말기(200)는 디스플레이 장치(110)로부터 상기 사용자가 승차한 차량의 정보를 수신한다(340단계). 여기에서, 상기 차량의 정보는 상기 설명한 승차 정보일 수 있다.
그리고, 상기 단말기(200)는 상기 승차 정보가 수신되면, 상기 수신된 승차 정보를 기등록된 다른 단말기로 전송한다(350단계). 여기에서, 상기 승차 정보의 전송은 상기 실행된 애플리케이션에 의해 이루어질 수 있다.
도 9 및 도 10은 본 발명의 실시 예에 따른 디스플레이 장치(110)의 승차 정보 전송 방법을 단계별로 설명하기 위한 흐름도이다.
도 9를 참조하면, 디스플레이 장치(110)의 제어부(118)는 상기 디스플레이 장치(110)가 설치된 차량에 대한 정보를 획득한다(400단계). 여기에서, 상기 승차 차량 정보는, 차종, 차량 등록일, 차량 소속사, 차량 번호 등을 포함할 수 있다. 그리고, 상기 승차 차량 정보는 메모리(115)에 저장되어 있을 수 있으며, 이에 따라 제어부(118)는 상기 메모리(115)에 저장된 차량 정보를 추출할 수 있다.
또한, 제어부(118)는 상기 차량을 운전하는 운전자 정보를 획득한다(410단계). 상기 운전자 정보는 운전자 이름, 자격 등록 번호 등을 포함할 수 있다. 그리고, 상기 운전자 정보는 메모리(115)에 저장되어 있을 수 있으며, 이에 따라 제어부(118)는 상기 메모리(115)에 저장된 운전자 정보를 추출할 수 있다.
이어서, 제어부(118)는 상기 설정된 목적지 정보를 획득하고, 그에 따라 현재 교통 상황 정보를 토대로 현 위치에서 상기 목적지까지의 이동 소요 시간을 획득한다(420단계).
그리고, 상기 제어부(118)는 일정 주기에 따라 상기 차량의 이동에 따른 현재 위치 정보를 획득한다(430단계).
이어서, 제어부(118)는 알림 조건이 발생하였는지 여부를 판단한다(440단계). 즉, 상기 제어부(118)는 기획득한 정보들을 포함하는 승차 정보를 외부 단말기로 전송하기 위한 전송 이벤트가 발생하였는지 여부를 판단한다. 상기 전송 이벤트는 복수의 알림 조건 중 기설정된 어느 하나의 특정 알림 조건에 의해 발생할 수 있다.
그리고, 제어부(118)는 상기 알림 조건이 발생, 다시 말해서 전송 이벤트가 발생하면, 승차 차량 정보, 운전자 정보, 출발지 정보(승차 위치 정보), 목적지 정보, 목적지까지의 소요 시간 정보 및 차량의 실시간 현재 위치 정보를 포함하는 승차 정보를 외부 단말기로 전송한다(440단계).
여기에서, 상기 외부 단말기는 상기 승객이 소유한 단말기일 수 있다. 또한, 제어부(118)는 상기 승객이 소유한 단말기로부터 기등록된 다른 단말기 정보(지인의 단말기 정보)를 획득하고, 그에 따라 상기 획득한 단말기 정보에 대응하는 지인 단말기로 상기 승차 정보를 전송할 수 있다.
또한, 상기 제어부(118)는 상기 승차 정보를 최초 전송하는 시점에는 상기 승차 차량 정보, 운전자 정보, 출발지 정보(승차 위치 정보), 목적지 정보, 목적지까지의 소요 시간 정보 및 차량의 실시간 현재 위치 정보를 모두 포함한 승차 정보를 생성하여 상기 외부 단말기로 전송할 수 있다.
또한, 제어부(118)는 상기 최초 전송 시점 이후부터 상기 이전에 전송한 정보와 중복되는 정보를 제외한 새롭게 변경되는 정보만을 상기 외부 단말기로 전송할 수 있다. 상기 새롭게 변경되는 정보는, 목적지까지의 소요 시간 정보 및 실시간 현재 위치 정보를 포함한다.
도 10을 참조하면, 제어부(118)는 상기 승차 정보를 전송하기 위한 알림 조건을 판단한다(510단계).
그리고, 상기 제어부(118)는 상기 판단한 알림 조건이 제 1 알림 조건이면(520단계), 상기 승차 모드의 완료 시점에 상기 승차 정보를 상기 외부 단말기로 전송한다(530단계). 여기에서, 상기 승차 모드의 완료 시점은 상기 차량이 이동한 목적지가 설정된 시점일 수 있다.
그리고, 상기 제 1 알림 조건에 의해 상기 승차 정보가 상기 외부 단말기로 전송되면, 상기 제어부(118)는 기설정된 시간 간격으로 상기 변경되는 승차 정보만을 획득하여 상기 외부 단말기로 계속하여 전송한다.
또한, 상기 제어부(118)는 상기 판단한 알림 조건이 제 2 알림 조건이면(540단계), 상기 승차 모드의 완료 시점으로부터 기설정된 시간 경과 시점에 승차 정보를 전송한다(550단계). 그리고, 상기 제 2 알림 조건에 의해 상기 승차 정보가 상기 외부 단말기로 전송되면, 상기 제어부(118)는 기설정된 시간 간격으로 상기 변경되는 승차 정보만을 획득하여 상기 외부 단말기로 계속하여 전송한다.
또한, 상기 제어부(118)는 상기 판단한 알림 조건이 제 3 알림 조건이면(560단계), 상기 차량의 현재 위치 정보를 계속하여 추적하고, 그에 따라 상기 차량의 현재 위치가 상기 출발지와 목적지 사이의 이동 경로가 아닌 다른 경로로 벗어났는지 여부를 판단하며, 상기 차량의 현재 위치가 상기 이동 경로를 벗어난 시점에 상기 승차 정보를 전송한다(570단계).
또한, 상기 제어부(118)는 상기 판단한 알림 조건이 제 4 알림 조건이면(580단계), 이전에 예상된 목적지까지의 이동 소요 시간을 기준으로, 상기 이동 소요 시간이 경과된 이후에도 승차 종료 이벤트가 발생하지 않으면, 상기 승차 정보를 외부 단말기로 전송한다(570단계).
이때, 상기에서 상기 승차 정보를 전송하기 위한 알림 조건은 복수 개가 동시에 설정될 수 있으며, 이에 따라 제어부(118)는 상기 설정된 복수의 알림 조건 중 어느 하나의 알림 조건에 대응하는 이벤트가 감지됨에 따라 상기 승차 정보를 전송할 수 있다.
다시 말해서, 제 1 내지 4 알림 조건이 모두 선택된 경우, 상기 제어부(118)는 제 1 알림 조건이 발생한 시점, 제 2 알림 조건이 발생한 시점, 제 3 알림 조건이 발생한 시점 및 제 3 알림 조건이 발생한 시점에 모두 상기 외부 단말기로 상기 승차 정보를 전송한다.
도 11은 본 발명의 실시 예에 따른 주행 모드에서 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이고, 도 12 내지 14는 본 발명의 실시 예에 따른 콘텐츠 선택 방법을 단계별로 설명하기 위한 흐름도이다.
도 11을 참조하면, 제어부(118)는 주행 모드로 진입하면, 디스플레이부(1171)의 제 1 영역을 통해 제 1 정보를 표시한다(60O단계). 여기에서, 상기 주행 모드로 진입하기 이전에는 상기 제 1 영역을 통해 상기 차량 정보 및 운전자 정보가 표시되며, 그에 따라 상기 주행 모드로 진입함에 따라 상기 제 1 영역에 표시되는 정보를 제 1 정보로 변경한다. 상기 제 1 정보에 대해서는 하기에서 상세히 설명하기로 한다.
이어서, 제어부(118)는 디스플레이부(1171)의 제 2 영역을 통해 제 2 정보를 표시한다(61O단계). 상기 제 2 정보는 뉴스 정보일 수 있으며, 이에 따라 제어부(118)는 서버(300)로부터 실시간 뉴스정보를 수신하고, 그에 따라 상기 수신한 뉴스 정보를 상기 제 2 영역을 통해 디스플레이한다.
또한, 제어부(118)는 디스플레이부(1171)의 제 3 영역을 통해 제 3 정보를 표시한다(62O단계). 여기에서, 상기 제 3 정보는 부가 정보일 수 있다.
상기 부가 정보에는, 날씨 정보나, 날짜 정보를 표시할 수 있으며, 이 이외에도 주행과 관련된 이동 거리 정보, 요금 정보를 포함할 수 있다.
도 12를 참조하면, 제어부(118)는 목적지가 설정되면, 현 위치에서 상기 목적지까지 소요되는 이동 소요 시간을 계산한다(700단계).
그리고, 상기 이동 소요 시간이 계산되면, 상기 제어부(118)는 메모리(115)에 저장된 콘텐츠나, 서버(300)에 존재하는 콘텐츠 중 상기 이동 소요 시간에 대응하는 재생 길이를 가지는 콘텐츠를 상기 제 1 정보로 선택한다(710단계). 여기에서, 상기 제 1 정보의 선택은 상기 이동 소요 시간에 대응하는 재생 길이를 가지는 콘텐츠의 목록을 디스플레이하고, 그에 따라 상기 디스플레이된 목록 중 어느 하나의 특정 콘텐츠의 선택 신호를 승객으로부터 입력받음으로써 이루어질 수 있다.
이어서, 상기 제 1 정보가 선택되면, 상기 제어부(118)는 상기 선택된 제 1 정보를 상기 디스플레이부(1171)의 제 1 영역에 디스플레이한다(720단계).
도 13을 참조하면, 제어부(118)는 기저장된 콘텐츠 및 서버에서 제공하는 콘텐츠의 목록을 표시한다(800단계).
이어서, 제어부(118)는 상기 표시되는 콘텐츠 목록 상에서 어느 하나의 특정 콘텐츠의 선택 신호를 수신한다(810단계).
그리고, 제어부(118)는 상기 선택 신호가 수신되면, 상기 선택된 콘텐츠를 제 1 정보로 설정하고, 그에 따라 상기 설정된 제 1 정보를 상기 디스플레이부(1171)의 제 1 영역을 통해 디스플레이한다(820단계).
도 14를 참조하면, 제어부(118)는 승객의 단말기(200)와 통신을 수행한다(900단계).
그리고, 제어부(118)는 상기 단말기(200)로부터 상기 승객의 요청 정보를 수신한다(910단계).
여기에서, 요청 정보는, 상기 단말기(200)를 통해 현재 실행되고 있는 콘텐츠나 애플리케이션에 대한 정보일 수 있다.
그리고, 제어부(118)는 상기 요청 정보가 수신되면, 상기 수신된 요청 정보에 대응하는 콘텐츠를 확인하고, 그에 따라 상기 확인한 콘텐츠를 제 1 정보로 설정하여 상기 디스플레이부(1171)의 제 1 영역을 통해 디스플레이 한다(920단계).
한편, 상기 디스플레이부(1171)를 통해 콘텐츠가 계속하여 재생되는 경우, 승객은 상기 콘텐츠 재생을 흥미롭게 시청할 수 있을 수도 있으며, 이와 다르게 상기 콘텐츠의 재생에 불편함을 느낄 수 있다. 이에 따라, 제어부(118)는 상기 승차한 승객의 상태를 감지하고, 그에 따라 상기 감지한 상태에 따라 디스플레이부(1171)의 디스플레이 조건을 변경한다.
도 15는 본 발명의 실시 예에 따른 주행 모드에서의 디스플레이 화면 제어 방법을 단계별로 설명하기 위한 흐름도이다.
도 15를 참조하면, 제어부(118)는 상태 감지부(113)를 통해 감지된 영상을 토대로 상기 승객의 상태를 판단한다(1000단계).
이어서, 제어부(118)는 상기 판단한 승객의 상태가 수면 상태인지 여부를 판단한다(1010단계).
그리고, 제어부(118)는 상기 승객의 상태가 수면 상태이면, 상기 디스플레이부(1171)의 출력을 차단한다(1020단계). 다시 말해서, 제어부(118)는 출력할 영상 신호 및 음성 신호 중 음성 신호만을 음성 출력 모듈에 전달하고, 상기 영상 신호는 전달하지 않는다. 이와 다르게, 제어부(118)는 상기 디스플레이부(1171)에 공급되는 전원을 차단한다.
이어서, 제어부(118)는 상기 디스플레이부(1171)의 출력 차단에 의해, 상기 영상 신호의 출력을 차단한 상태에서 음성 신호만이 출력되도록 한다(1030단계).
또한, 제어부(118)는 상기 영상신호의 출력을 차단하지 않고, 상기 디스플레이부(1171)의 밝기 레벨을 최저 레벨로 변경할 수도 있다.
도 16 및 도 17은 디스플레이부(1171)를 통해 표시되는 정보를 보여준다.
도 16을 참조하면, 디스플레이 화면(1600)은 제 1 영역(1610), 제 2 영역(1620) 및 제 3 영역(1630)으로 구분된다.
그리고, 상기 제 1 영역(1610)에는 상기 설명한 제 1 정보가 표시된다. 이때, 상기 제 1 정보의 선택 과정이 존재하지 않는 경우, 제어부(118)는 디폴트로 설정된 광고 정보와 같은 콘텐츠를 제 1 정보로 설정하고, 그에 따라 상기 설정한 제 1 정보를 상기 제 1 영역(1610)에 디스플레이할 수도 있다.
또한, 제 2 영역(1620)에는 서버(300)로부터 수신한 실시간 뉴스 정보가 표시된다.
또한, 제 3 영역(1630)에는 부가 정보가 표시되는데, 상기 부가 정보는 날씨 및 날짜 정보가 표시되는 제 1 부가 정보 표시 영역(1631)과, 상기 차량의 이동 거리 및 요금 정보가 표시되는 제 2 부가 정보 표시 영역(1632)과, 상기 차량의 이동 경로 상의 실시간 교통 상황 정보가 표시되는 제 3 부가 정보 표시 영역(1633)을 포함한다.
도 17을 참조하면, 디스플레이 화면(1700)은 제 1 영역(1710), 제 2 영역(1720) 및 제 3 영역(1730)으로 구분된다.
그리고, 상기 제 1 영역(1710)에는 상기 설명한 제 1 정보가 표시된다. 이때, 상기 제 1 정보의 선택 과정이 존재하지 않는 경우, 제어부(118)는 디폴트로 설정된 광고 정보와 같은 콘텐츠를 제 1 정보로 설정하고, 그에 따라 상기 설정한 제 1 정보를 상기 제 1 영역(1710)에 디스플레이할 수도 있다.
이때, 상기 제 1 정보는 상기 설정된 목적지 상의 위치 정보를 포함하는 지도 정보일 수 있으며, 상기 지도 정보 상에는 상기 목적지 주변의 주요 건물 정보나 맛집 정보 등이 표시될 수 있다.
또한, 제 2 영역(1720)에는 서버(300)로부터 수신한 실시간 뉴스 정보가 표시된다.
또한, 제 3 영역(1730)에는 부가 정보가 표시되는데, 상기 부가 정보는 날씨 및 날짜 정보가 표시되는 제 1 부가 정보 표시 영역(1731)과, 상기 차량의 이동 거리 및 요금 정보가 표시되는 제 2 부가 정보 표시 영역(1732)과, 상기 차량의 이동 경로 상의 실시간 교통 상황 정보가 표시되는 제 3 부가 정보 표시 영역(1733)을 포함한다. 이때, 상기 제어부(118)는 주행 모드로의 진입 전에는 상기 제 3 부가 정보 표시 영역(1733)에 단말기와의 통신을 유도하는 정보를 표시할 수 있다.
도 18은 본 발명의 실시 예에 따른 하차 모드에서 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이고, 도 19는 본 발명의 실시 예에 따른 하차 모드에서의 디스플레이 화면을 보여준다.
도 18을 참조하면, 제어부(118)는 승객의 하차가 감지되었는지 여부를 판단한다(1100단계).
즉, 제어부(118)는 차량의 현재 위치와, 기설정된 목적지 정보를 비교하고, 그에 따라 상기 승객의 하차 여부를 감지할 수 있다. 예를 들어, 제어부(118)는 차량이 목적지 주변에 도착하면, 하차 모드로 진입할 수 있다.
그리고, 제어부(118)는 상기 하차가 감지되었다면, 디스플레이부(1171)를 통해 상기 카메라(120)를 통해 촬영되는 영상을 디스플레이한다(1110단계).
상기 카메라(120)는 차량의 외부에 설치되어, 차량의 전방, 후방 및 측방의 영상 중 적어도 하나를 획득할 수 있으며, 그에 따라 상기 촬영된 영상을 상기 디스플레이장치로 전송한다. 여기에서, 상기 카메라(120)는 후방 카메라임이 바람직하다.
이때, 상기 제어부(118)는 상기 하차 감지를 상기 목적지와 현재 위치의 비교가 아닌, 다른 방법을 통해 수행할 수도 있다. 예를 들어, 제어부(118)는 승객이 목적지에 도착함에 따라 요금 결제를 위한 이벤트가 발생하는 시점을 상기 하차 시점으로 감지할 수 있다. 상기 요금 결제 이벤트는 최종 발생한 요금의 확인을 위하여 미터기의 요금 결제 버튼을 입력함에 의해 발생할 수 있다.
한편, 제어부(118)는 상기 디스플레이부(1171)를 통해 상기 카메라(120)를 통해 획득한 영상뿐만 아니라, 상기 영상과 함께 최종 발생한 요금 정보를 표시할 수 있다.
이때, 제어부(118)는 상기 승객이 상기 영상 및 요금 정보를 보다 용이하게 파악할 수 있도록 상기 영상 및 요금 정보를 확대하여 상기 디스플레이 화면 상에 표시할 수 있다.
도 19를 참조하면, 하차 모드에서 디스플레이부(1171)를 통해 표시되는 영상(1900)은 카메라(120)를 통해 획득한 외부 촬영 영상을 표시하는 제 1 영역(1910)과, 뉴스 정보와 같은 부가 정보를 표시하는 제 2 영역(1920)과, 주행과 관련된 부가 정보를 표시하는 제 3 영역(1930)으로 구분된다.
상기 제 1 영역(1910)에는 상기 카메라(120)를 통해 촬영된 영상이 표시된다.
이때, 상기 카메라(120)라 복수 개로 구성되는 경우, 상기 제 1 영역(1910)은 상기 카메라(120)의 수에 대응되는 복수 개의 영역으로 구분될 수 있으며, 그에 따라 상기 복수 개의 영역에 상기 카메라(120)를 통해 획득된 영상이 각각 표시될 수 있다.
제 3 영역(1930)에는 날씨 및 날짜 정보가 표시되는 제 1 부가 정보 표시 영역(1911)과, 차량이 이동한 총 거리 정보 및 요금 정보가 표시되는 제 2 부가 정보 표시 영역(1912)과, 상기 요금 정보를 확인하여 요금 결제를 유도하는 정보가 표시되는 제 3 부가 정보 표시 영역(1913)을 포함한다.
승객은 하차 시에 상기 디스플레이 화면의 제 1 영역(1910)을 통해 표시되는 영상을 토대로 외부 상황을 용이하게 파악할 수 있으며, 이에 따라 안전하게 하차를 시도할 수 있다.
다시, 도 18을 설명하면, 제어부(118)는 상기 디스플레이 화면의 제 1 영역을 통해 표시되는 영상을 분석한다(1120단계). 즉, 제어부(118)는 기저장된 기준 영상과 상기 표시되는 영상을 비교하여, 상기 표시되는 영상 내에 움직이는 객체가 존재하는지를 확인한다.
그리고, 제어부(118)는 상기 표시되는 영상의 분석 결과에 따라 상기 영상 내에 인체나 물체와 같은 객체가 존재하는지 여부를 판단한다(1130단계).
도 19를 보면, 제 1 영역에는 승객의 하차에 위험을 줄 수 있는 객체(1911)가 포함되어 있다. 제어부(118)는 상기 영상을 분석하여, 상기 영상 내에 상기와 같은 객체(1911)가 존재하는지 여부를 판단한다.
그리고, 제어부(118)는 상기 영상 내에 상기와 같은 객체가 존재하면, 상기 감지된 객체의 존재를 알리는 경고 신호를 출력한다(1140단계).
이어서, 제어부(118)는 차량 도어의 잠김을 위한 잠김 신호를 출력한다(1150단계). 즉, 제어부(118)는 승객이 상기 객체를 인지하지 못함에 따라 차량의 도어를 여는 것을 방지하기 위하여, 상기 도어가 열리지 않도록 상기 잠김 신호를 출력한다.
또한, 상기 제어부(118)는 상기 영상 내에 상기와 같은 객체가 존재하지 않다면, 상기 승객이 하차할 수 있도록 상기 도어의 잠김 해제를 위한 잠김 해제 신호를 출력한다(1160단계).
본 발명에 따른 실시 예에 의하면, 승객이 차량에 승차한 경우, 상기 승객이 승차한 차량에 대한 정보 및 운전자의 정보를 표시하고, 상기 차량의 이동 장소에 대한 목적지가 설정되면, 승차 정보를 상기 승객의 지인에게 전송해줌으로써, 상기 승객의 안전성을 확보할 수 있다.
또한, 본 발명에 따른 실시 예에 의하면, 차량의 주행 중에 광고 방송, 목적지 주변 정보, 뉴스 정보, 실시간 교통 상황 정보, 이동 경로 정보, 실시간 요금 정보 등의 다양한 부가 정보를 제공해줌으로써, 상기 차량이 목적지로 이동하는 동안 상기 승객의 지루함을 해소시켜주어 사용자 만족도를 향상시킬 수 있다.
또한, 본 발명에 따른 실시 예에 의하면, 승객이 차량에서 하차하는 경우, 카메라를 통해 획득한 상기 차량의 주변 영상을 표시해주고, 상기 차량의 주변에 오토바이와 같은 이동 물체가 존재하면, 이에 대한 경고 신호를 출력하거나 차량 도어가 열리지 않도록 잠김 상태로 변경해줌으로써, 상기 승객의 하차 시에 상기 승객을 안전하게 보호할 수 있다.
도 20 및 도 21은 본 발명의 다른 실시 예에 따른 디스플레이 장치의 동작 방법을 단계별로 설명하기 위한 흐름도이다.
즉, 이전에 설명한 디스플레이 장치의 동작 방법은 디스플레이장치가 택시와 같은 차량에 장착된 경우이고, 도 20 및 도 21은 디스플레이장치가 학원 버스와 같은 차량에 장착된 경우이다.
도 20을 참조하면, 제어부(118)는 우선적으로 사용자(여기에서, 승객은 학원의 수업을 마치고 귀가하는 학생 또는 학원에 등원하는 학생일 수 있음)이 승차함에 따라, 상기 사용자가 소유한 개인 정보 카드를 인식한다(1200단계).
즉, 실시 예에서는 사용자들을 관리하기 위하여, 수강증 발급과 같은 등록이 이루어지면, 상기 등록한 사용자들에게 각각 개인 정보 카드를 발급하도록 한다. 상기 개인 정보 카드에는 상기 사용자의 출발지, 목적지 정보가 저장되어 있으며, 또한 연락처 정보가 더 저장되어 있다. 상기 연락처는 상기 사용자 본인의 연락처일 수 있으며, 바람직하게는 상기 사용자의 부모님과 같은 보호자의 연락처이다.
제어부(118)는 상기 개인 정보 카드가 인식되면, 상기 인식된 개인 정보로부터 상기 사용자의 목적지 정보를 획득하며, 상기 획득한 목적지 정보를 이용하여 차량의 이동 목적지를 설정한다(1210단계).
여기에서, 제어부(118)는 상기 인식된 개인 정보 카드가 복수 개인 경우, 복수 개의 목적지 정보를 획득하고, 그에 따라 상기 복수의 목적지로 각각 이동하기 위한 최적의 목적지 이동 경로를 설정한다(1220단계). 이는, 일반적인 네비게이션 기술이므로, 이에 대한 상세한 설명은 생략한다.
이어서, 제어부(118)는 상기 설정된 주행 경로 및 교통 상황 정볼르 토대로 각각의 목적지까지 이동하기 위해 소요되는 소요 시간 정보를 획득한다(1230단계).
예를 들어, 차량에 탑승한 사용자가 제 1 사용자, 제 2 사용자 및 제 3 사용자이고, 제 1 사용자는 제 1 목적지로 이동하고, 제 2 사용자는 제 2 목적지로 이동하며, 제 3 사용자는 제 3 목적지를 이동하며, 상기 설정된 주행 경로가 현재 위치에서 제 1 목적지, 제 2 목적지 및 제 3 목적지 순으로 설정된 경우, 상기 제어부(118)는 현 위치에서 제 1 목적지까지 이동하는데 소요되는 제 1 소요 시간을 예상한다.
또한, 제어부(118)는 상기 현 위치에서 제 1 목적지를 거쳐 제 2 목적지까지 가는데 소요되는 제 2 소요 시간을 예상하고, 이와 마찬가지로, 현 위치에서 제 1 목적지 및 제 2 목적지를 거쳐 제 3 목적지까지 이동하는데 소요되는 제 3 소요 시간을 예상한다.
그리고, 제어부(118)는 상기 각각의 개인 정보에 대응하여 등록된 단말기 정보를 획득한다(1240단계). 즉, 제어부(118)는 제 1 사용자의 단말기 정보, 제 2 사용자의 단말기 정보 및 제 3 사용자의 단말기 정보를 획득한다(1240단계).
그리고, 제어부(118)는 상기 단말기 정보가 획득되면, 상기 획득한 각각의 단말기로 각각의 사용자의 승차 정보를 전송한다(1250단계).
즉, 제어부(118)는 제 1 사용자의 단말기로 출발지, 목적지, 목적지까지 이동하는데 소요되는 소요 시간(상기 설명한 제 1 소요 시간), 차량 정보, 운전자 정보 등을 전송한다. 이와 마찬가지로, 제어부(118)는 제 2 및 3 사용자의 단말기로 각각 상기와 같은 승차 정보를 전송한다.
도 21을 참조하면, 제어부(118)는 주행 모드에서, 차량이 이동할 다음 목적지 정보를 획득한다(1300단계).
상기 다음 목적지 정보가 획득되면, 제어부(118)는 상기 획득한 다음 목적지 정보를 토대로 상기 다음 목적지에서 하차하는 사용자에 대한 하차 정보를 획득한다(1310단계).
이어서, 제어부(118)는 상기 획득한 다음 목적지 정보와, 하차 정보를 디스플레이부(1171)를 통해 디스플레이한다(1320단계).
한편, 본 발명에서는 상기와 같이 특정 하차 이벤트가 발생하는 시점에 상기 카메라(120)를 통해 획득한 영상을 표시한다고 하였으나, 상기 사용자 입력부(116)에는 후방 카메라 전환 키와 같은 입력부를 포함하며, 이에 따라 승객이 원하는 시점에 상기 디스플레이 화면을 통해 상기 카메라(120)를 통해 획득한 영상을 표시할 수도 있다.
본 발명에 따른 실시 예에 의하면, 승객이 차량에 승차한 경우, 상기 승객이 승차한 차량에 대한 정보 및 운전자의 정보를 표시하고, 상기 차량의 이동 장소에 대한 목적지가 설정되면, 승차 정보를 상기 승객의 지인에게 전송해줌으로써, 상기 승객의 안전성을 확보할 수 있다.
또한, 본 발명에 따른 실시 예에 의하면, 차량의 주행 중에 광고 방송, 목적지 주변 정보, 뉴스 정보, 실시간 교통 상황 정보, 이동 경로 정보, 실시간 요금 정보 등의 다양한 부가 정보를 제공해줌으로써, 상기 차량이 목적지로 이동하는 동안 상기 승객의 지루함을 해소시켜주어 사용자 만족도를 향상시킬 수 있다.
또한, 본 발명에 따른 실시 예에 의하면, 승객이 차량에서 하차하는 경우, 카메라를 통해 획득한 상기 차량의 주변 영상을 표시해주고, 상기 차량의 주변에 오토바이와 같은 이동 물체가 존재하면, 이에 대한 경고 신호를 출력하거나 차량 도어가 열리지 않도록 잠김 상태로 변경해줌으로써, 상기 승객의 하차 시에 상기 승객을 안전하게 보호할 수 있다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 실시예의 범위에 포함되는 것으로 해석되어야 할 것이다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 실시예를 한정하는 것이 아니며, 실시예가 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 설정하는 실시예의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (20)

  1. 차량 내부에 장착되는 디스플레이장치에 있어서,
    카메라와 연결되고, 상기 카메라를 통해 상기 차량의 외부에서 촬영된 촬영 영상을 수신하는 제 1 통신부;
    상기 차량의 위치 정보를 획득하는 위치 정보 획득부; 및
    상기 차량의 목적지를 확인하고, 상기 차량의 목적지 및 상기 획득된 위치 정보를 기준으로 상기 제 1 통신부를 통해 수신된 영상의 디스플레이 시점을 제어하는 제어부; 및
    상기 제어부의 제어신호에 따라 상기 카메라를 통해 촬영된 영상을 디스플레이하는 디스플레이부를 포함하는
    디스플레이장치.
  2. 제 1항에 있어서,
    상기 디스플레이 시점은,
    상기 목적지의 일정 거리 반경 이내로 상기 차량이 접근한 시점을 포함하는
    디스플레이장치.
  3. 제 1항에 있어서,
    상기 디스플레이 시점은,
    상기 목적지를 기준으로 상기 차량에 탑승한 승차자의 하차 시점인
    디스플레이장치.
  4. 제 1항에 있어서,
    상기 디스플레이 시점은,
    요금 결제 이벤트가 발생한 시점을 포함하는
    디스플레이 장치.
  5. 제 1항에 있어서,
    상기 제어부는,
    상기 디스플레이 시점에 상기 촬영 영상과 함께 상기 차량의 주행 관련 정보가 상기 디스플레이부를 통해 표시되도록 하고,
    상기 주행 관련 정보는,
    이동 거리 정보, 이동 경로 정보 및 요금 정보 중 적어도 하나를 포함하는
    디스플레이 장치.
  6. 제 1항에 있어서,
    상기 제어부는,
    상기 촬영 영상을 분석하여, 상기 촬영 영상 내에 기설정된 객체가 존재하는지 여부를 판단하고, 상기 객체의 존재 여부에 따라 경고 신호가 출력되도록 제어하는
    디스플레이 장치.
  7. 제 6항에 있어서,
    상기 제어부는,
    상기 촬영 영상 내에 기설정된 객체가 존재하면, 상기 차량의 도어 잠김을 위한 도어 잠김 신호를 출력하는
    디스플레이 장치.
  8. 제 1항에 있어서,
    상기 제어부는,
    상기 차량 내부로 승차하는 승차자가 감지되면, 상기 디스플레이부를 통해 차량 관련 정보가 디스플레이되도록 제어하고,
    상기 차량 관련 정보는,
    차량 번호 및 차종 중 적어도 하나를 포함하는 차량 정보와,
    운전자 이름, 자격 등록 번호 및 소속사 중 적어도 하나를 포함하는 운전자 정보를 포함하는
    디스플레이 장치.
  9. 제 1항에 있어서,
    상기 차량 내부로 승차하는 승차자가 감지되면, 상기 승차자의 제 1 단말기와 통신을 수행하는 제 2 통신부를 더 포함하며,
    상기 제 2 통신부는,
    상기 제 1 단말기로부터 전송되는 상기 승차자의 목적지 정보를 수신하며,
    상기 제어부는,
    상기 제 2 통신부를 통해 수신되는 목적지 정보를 이용하여 상기 차량의 목적지를 설정하는
    디스플레이 장치.
  10. 제 9항에 있어서,
    상기 제어부는,
    상기 목적지가 설정되면, 상기 승차자의 승차 정보를 외부로 전송하며,
    상기 승차 정보는,
    승차 시간, 승차 차량 정보, 운전자 정보, 출발지 정보, 목적지 정보 및 목적지까지의 소요 시간 정보 중 적어도 하나를 포함하는
    디스플레이 장치.
  11. 제 10항에 있어서,
    상기 제어부는,
    상기 제 1 단말기 및 상기 제 1 단말기에 등록된 타인의 제 2 단말기 중 적어도 하나로 상기 승차 정보를 전송하며,
    상기 제 2 통신부는,
    상기 제 1 단말기와의 통신을 통해 상기 제 2 단말기의 정보를 획득하는
    디스플레이 장치.
  12. 제 11항에 있어서,
    상기 제어부는,
    기설정된 알림 조건에 따라 상기 제 1 및 2 단말기 중 어느 하나의 단말기로 추가 승차 정보가 전송되도록 하고,
    상기 추가 승차 정보는,
    상기 차량의 이동에 따른 실시간 현재 위치 정보를 더 포함하는
    디스플레이 장치.
  13. 제 4항에 있어서,
    상기 요금 결제 이벤트 발생에 따라, 요금 결제 수단으로부터 요금 결제 정보를 획득하는 제 3 통신부를 더 포함하는
    디스플레이 장치.
  14. 제 1항에 있어서,
    상기 제어부는,
    상기 차량의 주행 중에 상기 디스플레이부를 통해 기설정된 콘텐츠가 디스플레이되도록 제어하며,
    상기 콘텐츠는,
    광고, 뉴스, 목적지 주위의 지도 및 상기 차량의 이동 경로에 대한 교통 상황 정보 중 적어도 하나를 포함하는
    디스플레이 장치.
  15. 차량의 주행 정보를 획득하는 단계;
    상기 차량의 현재 위치 정보를 획득하는 단계;
    상기 획득된 주행 정보 및 현재 위치 정보를 기준으로 승차자의 하차 시점을 판단하는 단계; 및
    상기 하차 시점이 도래하면, 상기 차량의 외부 촬영 영상을 디스플레이하는 단계를 포함하는
    디스플레이 장치의 동작 방법.
  16. 제 15항에 있어서,
    상기 하차 시점을 판단하는 단계는,
    상기 현재 위치 정보를 토대로 상기 목적지의 일정 거리 반경 이내의 인근 지역으로 상기 차량이 진입하였는지 여부를 판단하는 단계와,
    상기 인근 지역으로 상기 차량이 진입한 시점을 상기 하차 시점으로 판단하는 단계를 포함하는
    디스플레이 장치의 동작 방법.
  17. 제 15항에 있어서,
    요금 결제 이벤트가 발생했는지 여부를 판단하는 단계를 더 포함하고,
    상기 외부 촬영 영상은,
    상기 요금 결제 이벤트가 발생한 시점에 디스플레이되는
    디스플레이 장치의 동작 방법.
  18. 제 15항에 있어서,
    상기 외부 촬영 영상 내에 기설정된 객체가 존재하는지 여부에 따라 경고 신호를 출력하는 단계를 더 포함하는
    디스플레이 장치의 동작 방법.
  19. 제 15항에 있어서,
    상기 차량 내부로 승차하는 승차자가 감지되면, 상기 승차자의 제 1 단말기와 통신을 수행하여 상기 승차자의 목적지 정보를 수신하는 단계를 더 포함하는
    디스플레이 장치의 동작 방법.
  20. 제 19항에 있어서,
    기설정된 정보 전송 시점에 상기 제 1 단말기 및 상기 제 1 단말기로부터 획득된 제 2 단말기 중 적어도 어느 하나로 상기 차량의 승차 정보를 전송하는 단계를 더 포함하는
    디스플레이 장치의 동작 방법.
PCT/KR2016/004779 2015-05-19 2016-05-09 디스플레이장치 및 이의 동작 방법 WO2016186355A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/575,252 US20180137595A1 (en) 2015-05-19 2016-05-09 Display device and operation method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0070017 2015-05-19
KR1020150070017A KR102411171B1 (ko) 2015-05-19 2015-05-19 디스플레이장치 및 이의 동작 방법

Publications (1)

Publication Number Publication Date
WO2016186355A1 true WO2016186355A1 (ko) 2016-11-24

Family

ID=57320635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/004779 WO2016186355A1 (ko) 2015-05-19 2016-05-09 디스플레이장치 및 이의 동작 방법

Country Status (3)

Country Link
US (1) US20180137595A1 (ko)
KR (1) KR102411171B1 (ko)
WO (1) WO2016186355A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108909623A (zh) * 2017-04-28 2018-11-30 丰田自动车株式会社 图像显示装置
US10809721B2 (en) 2016-12-27 2020-10-20 Toyota Jidosha Kabushiki Kaisha Autonomous driving system
CN112654545A (zh) * 2018-09-07 2021-04-13 图森有限公司 用于车辆的后向感知系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10554783B2 (en) * 2016-12-30 2020-02-04 Lyft, Inc. Navigation using proximity information
KR102645360B1 (ko) * 2017-01-12 2024-03-11 삼성전자주식회사 차량 장치 및 전자 장치와 차량 장치에서 디스플레이 방법 및 전자 장치에서 정보 전송 방법
JP6846624B2 (ja) * 2017-02-23 2021-03-24 パナソニックIpマネジメント株式会社 画像表示システム、画像表示方法及びプログラム
KR102007228B1 (ko) * 2017-11-10 2019-08-05 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
JP7061280B2 (ja) 2018-02-05 2022-04-28 トヨタ自動車株式会社 サーバ装置、車両及びシステム
EP3598259B1 (en) * 2018-07-19 2021-09-01 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
CN110103714A (zh) * 2019-05-19 2019-08-09 上海方堰实业有限公司 一种客车用智能信息显示器
KR102606438B1 (ko) * 2023-08-21 2023-11-24 두혁 지능형 영상 감지를 활용한 추돌 방지 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040050957A (ko) * 2002-12-11 2004-06-18 씨엔씨엔터프라이즈 주식회사 부가서비스를 제공하는 택시요금징수단말기
KR100577539B1 (ko) * 2004-07-01 2006-05-10 김현민 광고형모니터링시스템
KR20130026942A (ko) * 2011-09-06 2013-03-14 한국전자통신연구원 차량의 위험감지장치 및 그 제어방법
KR20130038315A (ko) * 2013-02-27 2013-04-17 한형우 안전택시 서비스시스템
KR20140050472A (ko) * 2012-10-19 2014-04-29 현대모비스 주식회사 차량의 하차 안전 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020164962A1 (en) * 2000-07-18 2002-11-07 Mankins Matt W. D. Apparatuses, methods, and computer programs for displaying information on mobile units, with reporting by, and control of, such units
US20040036622A1 (en) * 2000-12-15 2004-02-26 Semyon Dukach Apparatuses, methods, and computer programs for displaying information on signs
US20030040944A1 (en) * 2001-08-22 2003-02-27 Hileman Ryan M. On-demand transportation system
US7253833B2 (en) * 2001-11-16 2007-08-07 Autonetworks Technologies, Ltd. Vehicle periphery visual recognition system, camera and vehicle periphery monitoring apparatus and vehicle periphery monitoring system
JP3908056B2 (ja) * 2002-02-26 2007-04-25 アルパイン株式会社 車載用ナビゲーション装置
JP2003271706A (ja) * 2002-03-14 2003-09-26 Fujitsu Ltd タクシー相乗り管理方法、タクシー相乗り管理プログラムおよびタクシー相乗り管理装置
JP2004157698A (ja) * 2002-11-06 2004-06-03 Nec Corp タクシーサービスシステム、携帯端末装置及びそれに用いるタクシーサービス方法並びにそのプログラム
US8639214B1 (en) * 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
US8005488B2 (en) * 2007-12-14 2011-08-23 Promptu Systems Corporation Automatic service vehicle hailing and dispatch system and method
JP2010230551A (ja) * 2009-03-27 2010-10-14 Sony Corp ナビゲーション装置及びナビゲーション方法
JP5275963B2 (ja) * 2009-12-08 2013-08-28 株式会社東芝 表示装置、表示方法及び移動体
US20120041675A1 (en) * 2010-08-10 2012-02-16 Steven Juliver Method and System for Coordinating Transportation Service
US9386440B2 (en) * 2011-04-28 2016-07-05 Lg Electronics Inc. Method for improving communication performance using vehicle provided with antennas
JP2015066979A (ja) * 2013-09-26 2015-04-13 ヤマハ発動機株式会社 船舶用表示システムおよびそれを備えた小型船舶
DE112014006597T5 (de) * 2014-04-17 2017-04-06 Mitsubishi Electric Corporation Fahrzeugmontierte Vorrichtung
US9360333B2 (en) * 2014-08-04 2016-06-07 Here Global B.V. Method and apparatus calculating estimated time of arrival from multiple devices and services

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040050957A (ko) * 2002-12-11 2004-06-18 씨엔씨엔터프라이즈 주식회사 부가서비스를 제공하는 택시요금징수단말기
KR100577539B1 (ko) * 2004-07-01 2006-05-10 김현민 광고형모니터링시스템
KR20130026942A (ko) * 2011-09-06 2013-03-14 한국전자통신연구원 차량의 위험감지장치 및 그 제어방법
KR20140050472A (ko) * 2012-10-19 2014-04-29 현대모비스 주식회사 차량의 하차 안전 장치
KR20130038315A (ko) * 2013-02-27 2013-04-17 한형우 안전택시 서비스시스템

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10809721B2 (en) 2016-12-27 2020-10-20 Toyota Jidosha Kabushiki Kaisha Autonomous driving system
CN108909623A (zh) * 2017-04-28 2018-11-30 丰田自动车株式会社 图像显示装置
CN112654545A (zh) * 2018-09-07 2021-04-13 图森有限公司 用于车辆的后向感知系统
US11704909B2 (en) 2018-09-07 2023-07-18 Tusimple, Inc. Rear-facing perception system for vehicles
CN112654545B (zh) * 2018-09-07 2023-12-05 图森有限公司 用于车辆的后向感知系统

Also Published As

Publication number Publication date
KR102411171B1 (ko) 2022-06-21
US20180137595A1 (en) 2018-05-17
KR20160136166A (ko) 2016-11-29

Similar Documents

Publication Publication Date Title
WO2016186355A1 (ko) 디스플레이장치 및 이의 동작 방법
WO2011093560A1 (en) Information display apparatus and method thereof
WO2014038809A1 (ko) 전자기기 및 그것의 제어방법
WO2019168297A1 (en) Method of providing detailed map data and system therefor
WO2014035148A1 (en) Information providing method and information providing vehicle therefor
WO2016085198A1 (ko) 전자기기 및 그것의 제어방법
WO2012044101A2 (ko) 이동통신 단말기, 그를 이용한 안전 서비스 시스템 및 방법
WO2017078209A1 (ko) 영상을 공유하는 전자 기기 및 방법
WO2020085540A1 (en) Augmented reality method and apparatus for driving assistance
WO2016076587A1 (en) Information providing apparatus and method thereof
WO2018012674A1 (en) Driver assistance apparatus and vehicle having the same
WO2018070646A1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
WO2017150768A1 (ko) 디스플레이 장치 및 이를 포함하는 차량
WO2019098434A1 (ko) 차량에 구비된 차량 제어 장치 및 차량의 제어방법
WO2014189200A1 (ko) 영상표시장치 및 영상표시장치의 동작방법
WO2017018583A1 (ko) 이동 단말기 및 그 제어방법
WO2013133464A1 (en) Image display device and method thereof
WO2017095207A1 (en) User terminal and control method thereof
WO2011136456A1 (en) Video display apparatus and method
WO2018097423A1 (ko) 자율 주행 차량 및 자율 주행 차량의 동작 방법
WO2019151575A1 (ko) 차량 단말기 및 그것을 포함하는 운송 시스템의 제어방법
WO2019132078A1 (ko) 차량에 구비된 디스플레이 장치
WO2015147581A1 (en) Method and apparatus for providing information based on movement of an electronic device
WO2019198998A1 (ko) 차량 제어 장치 및 그것을 포함하는 차량
WO2017104888A1 (ko) 차량 운전 보조장치 및 이의 차량 운전 보조방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16796682

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15575252

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16796682

Country of ref document: EP

Kind code of ref document: A1