WO2017018844A1 - Autonomous vehicle and operation method of same - Google Patents

Autonomous vehicle and operation method of same Download PDF

Info

Publication number
WO2017018844A1
WO2017018844A1 PCT/KR2016/008328 KR2016008328W WO2017018844A1 WO 2017018844 A1 WO2017018844 A1 WO 2017018844A1 KR 2016008328 W KR2016008328 W KR 2016008328W WO 2017018844 A1 WO2017018844 A1 WO 2017018844A1
Authority
WO
WIPO (PCT)
Prior art keywords
driving environment
autonomous vehicle
image
virtual
virtual driving
Prior art date
Application number
PCT/KR2016/008328
Other languages
French (fr)
Korean (ko)
Inventor
크로닌존
멜빈 크로닌세쓰
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160054107A external-priority patent/KR20170015112A/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP19196268.7A priority Critical patent/EP3597468A1/en
Priority to US15/744,391 priority patent/US20180211414A1/en
Priority to EP16830877.3A priority patent/EP3330151A4/en
Publication of WO2017018844A1 publication Critical patent/WO2017018844A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Definitions

  • the present disclosure relates to an autonomous vehicle and a method of operation thereof.
  • an autonomous vehicle includes a display device formed in an area of a car window of an autonomous vehicle; And a processor that controls the display device to display a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle.
  • an operating method of an autonomous vehicle includes: obtaining a virtual driving environment image in place of an actual driving environment of the autonomous vehicle; And controlling a display device formed in an area of a car window of an autonomous vehicle to display a virtual driving environment image.
  • a computer readable recording medium having recorded thereon a program for implementing the method.
  • an autonomous vehicle may include an input device configured to receive a virtual driving environment from a user; And a windshield displaying the selected virtual driving environment.
  • the virtual driving environment image which replaces the actual driving environment, is provided to the occupant through a display device formed in the area of the window of the autonomous vehicle, and thus the passenger can experience the virtual driving environment more realistically. Can provide.
  • FIG. 1 is a diagram illustrating an autonomous vehicle according to an embodiment.
  • FIG. 2 is a block diagram illustrating detailed hardware configurations of an autonomous vehicle according to an embodiment.
  • FIG. 3 is a block diagram of an autonomous vehicle according to an embodiment.
  • FIG. 4 is a diagram illustrating a windshield of an autonomous vehicle according to an exemplary embodiment.
  • FIG. 5 is a diagram for describing a display apparatus, according to an exemplary embodiment.
  • FIG. 6 is a diagram for describing a display apparatus, according to another exemplary embodiment.
  • FIG. 7 is a diagram illustrating a UI for determining a driving route, according to an exemplary embodiment.
  • FIG. 8 is a diagram illustrating a UI for setting a virtual reality, according to an exemplary embodiment.
  • FIG. 9 is a diagram for describing generating a virtual driving environment image.
  • FIG. 10 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels straight.
  • FIG. 11 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels in a right turn.
  • FIGS. 12 and 13 illustrate an embodiment of generating a plurality of virtual driving environment images corresponding to a point on a driving route.
  • FIG. 14 is a diagram illustrating an embodiment of a camera of an autonomous vehicle.
  • 15 is a diagram illustrating an embodiment in which a processor generates a virtual driving environment image based on an image of an actual driving environment.
  • FIG. 16 is a diagram illustrating a UI for selecting an area of a window to display a virtual driving environment according to an exemplary embodiment.
  • FIG. 17 is a diagram illustrating an embodiment in which a virtual driving environment image is displayed on an area of a car window corresponding to a line of sight of a passenger.
  • FIG. 18 is a diagram illustrating a UI for selecting content to display on a display apparatus, according to an exemplary embodiment.
  • 19 is a diagram illustrating an embodiment of displaying a movie on a display device.
  • 20 is a diagram illustrating a UI for setting an event, according to an exemplary embodiment.
  • FIG. 21 is a diagram for one embodiment of providing a passenger with information on an event when a predetermined event occurs.
  • FIG. 22 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
  • FIG. 23 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
  • 24 is a flowchart of a method of operating an autonomous vehicle, according to an exemplary embodiment.
  • FIG. 25 is a detailed flowchart embodying step 2420 of FIG. 24.
  • 26 is a detailed flowchart of a method of operating an autonomous vehicle according to an embodiment.
  • an autonomous vehicle includes a display device formed in an area of a car window of an autonomous vehicle; And a processor that controls the display device to display a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle.
  • the virtual driving environment image may be an image showing a virtual driving environment outside of the autonomous vehicle viewed from the viewpoint of the inside of the autonomous vehicle toward the area of the vehicle window.
  • the processor may obtain information about a driving route from a current position of the autonomous vehicle to a destination, and generate virtual driving environment images corresponding to each of the points on the driving route.
  • the apparatus may further include a motion sensing device that senses a movement of the autonomous vehicle, and the processor may control the display device to display the virtual driving environment images based on the sensed movement.
  • the motion sensing device senses the traveling speed of the autonomous vehicle
  • the processor may control the rate of change of the image between the virtual driving environment images displayed on the display device based on the sensed driving speed.
  • the processor may control an image change rate between virtual driving environment images displayed on each of the plurality of display apparatuses based on the sensed movement.
  • the apparatus may further include an image sensor configured to capture an image of an actual driving environment, and the processor may generate a virtual driving environment image based on the captured image of the actual driving environment.
  • the processor may generate a virtual driving environment image reflecting the appearance of the object shown in the image of the actual driving environment.
  • the processor may generate a virtual driving environment image based on a virtual reality selected from a passenger of the autonomous vehicle among a plurality of virtual realitys.
  • the processor may determine whether a predetermined event occurs, and when an event occurs, the processor of the autonomous vehicle may control the actual driving environment corresponding to the event through the display device.
  • an operating method of an autonomous vehicle includes: obtaining a virtual driving environment image in place of an actual driving environment of the autonomous vehicle; And controlling a display device formed in an area of a car window of an autonomous vehicle to display a virtual driving environment image.
  • a computer readable recording medium having recorded thereon a program for implementing the method.
  • an autonomous vehicle may include an input device configured to receive a virtual driving environment from a user; And a windshield displaying the selected virtual driving environment.
  • the term “consisting of” or “comprising” should not be construed as including all of the various elements, or steps, described in the specification, and some or some of them may be included. Should not be included, or should be construed to further include additional components or steps.
  • the terms “... unit”, “module”, etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
  • FIG. 1 is a diagram illustrating an autonomous vehicle according to an embodiment.
  • the autonomous vehicle 1 may refer to a vehicle that can drive itself without intervention of a passenger.
  • the autonomous vehicle 1 may display a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1.
  • the autonomous vehicle 1 may display an image representing a virtual driving environment different from the actual driving environment around the autonomous vehicle 1. For example, if the autonomous vehicle 1 is traveling in the city center, there may be many buildings in the actual driving environment around the autonomous vehicle 1, but the autonomous vehicle 1 represents a forest.
  • the virtual driving environment image may be displayed. Therefore, the passenger of the autonomous vehicle 1 may experience that the autonomous vehicle 1 is driving in the forest, not in the city center, through the virtual driving environment image displayed by the autonomous vehicle 1.
  • the autonomous vehicle 1 may display a virtual driving environment image through a display device formed in an area of a car window of the autonomous vehicle 1. Therefore, when the occupant looks at the area of the window of the autonomous vehicle 1, the occupant may view the virtual driving environment image displayed on the display device formed in the area of the window, so that the actual driving around the autonomous vehicle 1 is performed.
  • a virtual driving environment rather than an environment.
  • the autonomous vehicle 1 may display a virtual driving environment image through a display device in conjunction with the movement of the autonomous vehicle 1, and thus, the autonomous vehicle 1 may be virtually realized.
  • the driving environment may display a virtual driving environment image through a display device in conjunction with the movement of the autonomous vehicle 1, and thus, the autonomous vehicle 1 may be virtually realized.
  • FIG. 2 is a block diagram illustrating detailed hardware configurations of an autonomous vehicle according to an embodiment.
  • the autonomous vehicle 1 includes a propulsion device 210, a power supply device 299, a communication device 250, an input device 260, an output device 280, a storage device 270, and a travel device 220. , The sensing device 230, the peripheral device 240, and the control device 290. However, the autonomous vehicle 1 may further include other general-purpose components in addition to the components illustrated in FIG. 2, or the autonomous vehicle 1 may not include some of the components illustrated in FIG. 2. It may be understood by those of ordinary skill in the art related to the present embodiment.
  • the propulsion device 210 may include an engine / motor 211, an energy source 212, a transmission 213 and a wheel / tire 214.
  • the engine / motor 211 may be any combination between an internal combustion engine, an electric motor, a steam engine, and a stirling engine.
  • the engine / motor 211 may be a gasoline engine and an electric motor.
  • Energy source 212 may be a source of energy that powers the engine / motor 211 in whole or in part. That is, engine / motor 211 may be configured to convert energy source 212 into mechanical energy. Examples of energy sources 212 may be at least one of gasoline, diesel, propane, other compressed gas based fuels, ethanol, solar panels, batteries, and other electrical power sources. Alternatively, the energy source 212 may be at least one of a fuel tank, a battery, a capacitor, and a flywheel. The energy source 212 can provide energy to the systems and devices of the autonomous vehicle 1.
  • Transmission 213 may be configured to transfer mechanical power from engine / motor 211 to wheel / tire 214.
  • the transmission 213 may include at least one of a gearbox, a clutch, a differential, and a drive shaft.
  • the drive shafts may include one or more axles configured to be coupled to the wheel / tire 214.
  • the wheel / tire 214 may be configured in a variety of formats, including a unicycle, a bike / motorcycle, a tricycle, or a four wheel type of a car / truck. For example, other wheel / tire types may be possible, such as including six or more wheels.
  • the wheel / tire 214 includes at least one wheel fixedly attached to the transmission 213 and at least one tire coupled to a rim of the wheel that can contact the driving surface. can do.
  • the traveling device 220 may include a brake unit 221, a steering unit 222, and a throttle 223.
  • the steering unit 222 may be a combination of mechanisms configured to adjust the direction of the autonomous vehicle 1.
  • the throttle 223 may be a combination of mechanisms configured to control the speed of operation of the engine / motor 211 to control the speed of the autonomous vehicle 1.
  • the throttle 223 may adjust the amount of throttle opening to adjust the amount of mixed gas of fuel air flowing into the engine / motor 211, and may control power and thrust by adjusting the throttle opening.
  • the brake unit 221 may be a combination of mechanisms configured to decelerate the autonomous vehicle 1.
  • the brake unit 221 may use friction to reduce the speed of the wheel / tire 214.
  • the sensing device 230 may include a plurality of sensors configured to sense information about the environment in which the autonomous vehicle 1 is located, as well as one or more actuators configured to modify the position and / or orientation of the sensors. Can include them.
  • the sensing device 230 includes a Global Positioning System (GPS) 224, an Inertial Measurement Unit (IMU) 225, a RADAR unit 226, a LIDAR unit 227, and an image sensor 228. can do.
  • the sensing device 230 may include at least one of a temperature / humidity sensor 232, an infrared sensor 233, a barometric pressure sensor 235, a proximity sensor 236, and an RGB sensor illuminance sensor 237. It may be, but is not limited thereto. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted.
  • the sensing device 230 may include a motion sensing device 238 capable of sensing the movement of the autonomous vehicle 1.
  • the motion sensing device 238 may include a geomagnetic sensor 229, an acceleration sensor 231, and a gyroscope sensor 234.
  • the GPS 224 may be a sensor configured to estimate the geographic location of the autonomous vehicle 1. That is, the GPS 224 may include a transceiver configured to estimate the position of the autonomous vehicle 1 with respect to the earth.
  • the IMU 225 may be a combination of sensors configured to detect positional and orientation changes of the autonomous vehicle 1 based on inertial acceleration.
  • the combination of sensors may include accelerometers and gyroscopes.
  • the RADAR unit 226 may be a sensor configured to detect objects in the environment in which the autonomous vehicle 1 is located using a wireless signal.
  • the RADAR unit 226 can be configured to sense the speed and / or direction of the objects.
  • the LIDAR unit 227 may be a sensor configured to detect objects in the environment in which the autonomous vehicle 1 is located using a laser. More specifically, LIDAR unit 227 may include a laser light source and / or laser scanner configured to emit a laser, and a detector configured to detect reflection of the laser. The LIDAR unit 227 may be configured to operate in coherent (eg, using hetirodyne detection) or noncoherent detection mode.
  • the image sensor 228 may be a still camera or a video camera configured to record three-dimensional images of the interior of the autonomous vehicle 1.
  • the image sensor 228 may include a number of cameras, which may be disposed at a number of locations on the inside and outside of the autonomous vehicle 1.
  • the peripheral device 240 may include a navigation 241, a light 242, a turn signal 243, a wiper 244, an interior light 245, a heater 246, and an air conditioner 247.
  • the navigation 241 may be a system configured to determine a travel route for the autonomous vehicle 1.
  • the navigation 241 may be configured to dynamically update the travel route while the autonomous vehicle 1 is traveling.
  • the navigation 241 may use data from the GPS 224 and maps to determine the route of travel for the autonomous vehicle 1.
  • the storage device 270 may include a magnetic disk drive, an optical disk drive, and a flash memory. Alternatively, the storage device 270 may be a portable USB data storage device. Storage device 270 may store system software for executing examples related to the present disclosure. System software for carrying out the examples relating to the present disclosure may be stored on a portable storage medium.
  • the communication device 250 may include at least one antenna for wirelessly communicating with another device.
  • communication device 250 may be used to communicate with a cellular network or other wireless protocols and systems wirelessly via Wi-Fi or Bluetooth.
  • the communication device 250 controlled by the control device 290 may transmit and receive a wireless signal.
  • the control device 290 may execute a program included in the storage device 270 in order for the communication device 250 to transmit and receive a wireless signal with the cellular network.
  • the input device 260 means a means for inputting data for controlling the autonomous vehicle 1.
  • the input device 260 may include a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
  • the input device 260 may include a microphone, which may be configured to receive audio (eg, voice commands) from the occupant of the autonomous vehicle 1.
  • the output device 280 may output an audio signal or a video signal, and the output device 280 may include a display 281 and a sound output unit 282.
  • the display unit 281 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. 3D display, an electrophoretic display.
  • the output device 280 may include two or more display units 281.
  • the sound output unit 282 outputs audio data received from the communication device 250 or stored in the storage device 270.
  • the sound output unit 282 may include a speaker, a buzzer, and the like.
  • the input device 260 and the output device 280 may include a network interface, and may be implemented as a touch screen.
  • the control device 290 typically controls the overall operation of the autonomous vehicle 1.
  • the control device 290 executes the programs stored in the storage device 270, such that the propulsion device 210, the traveling device 220, the sensing device 230, the peripheral device 240, and the communication device ( 250, the input device 260, the storage device 270, the output device 280, and the power supply 299 may be controlled overall.
  • the control device 290 may control the movement of the autonomous vehicle 1.
  • the power supply 299 may be configured to provide power to some or all of the components of the autonomous vehicle 1.
  • power supply 299 may comprise a rechargeable lithium ion or lead-acid battery.
  • FIG. 3 is a block diagram of an autonomous vehicle according to an embodiment.
  • the autonomous vehicle 1 may include a display device 110 and a processor 120.
  • a display device 110 In the autonomous vehicle 1 shown in FIG. 3, only components related to the present embodiment are shown. Therefore, it will be understood by those skilled in the art that other general purpose components other than the components shown in FIG. 3 may be further included.
  • the display device 110 may include the display 281 of FIG. 2, and the processor 120 may correspond to the control device 290 of FIG. 2.
  • the display apparatus 110 may be formed in an area of a vehicle window of the autonomous vehicle 1.
  • FIG. 4 is a diagram illustrating a windshield of an autonomous vehicle according to an exemplary embodiment.
  • the window of the autonomous vehicle 1 is a window 401 corresponding to the front surface of the autonomous vehicle 1, a car window 402 corresponding to the right side of the autonomous vehicle 1, and a left side of the autonomous vehicle 1.
  • the window 403 corresponding to the surface, the window 404 corresponding to the rear of the autonomous vehicle 1, and the window 405 corresponding to the ceiling of the autonomous vehicle 1 may be used.
  • the autonomous vehicle 1 may include a display device formed in at least one area of the vehicle windows 401, 402, 403, 404, 405.
  • the autonomous vehicle 1 includes windows corresponding to five regions, but the present invention is not limited thereto, and the autonomous vehicle 1 may have different positions, different sizes, and different positions from those of FIG. 4.
  • the windows may be provided in a form or the like.
  • the display apparatus 110 may be a transparent display formed in an area of a vehicle window.
  • the display device 110 may be a transparent display to replace the windshield. That is, the display device 110 may be a transparent display having a function for a display and a function as a window.
  • the display device 110 may be configured as a transparent electrode. When a voltage is applied to the display device 110, the display device 110 may have a function for display, and the display device 110 may be used. If no voltage is applied), it may have a function as a windshield.
  • the display device 110 may have a size of an area of the window and may be formed on the surface of the window.
  • the display device 110 may be slidably coupled to the window.
  • FIG. 5 is a diagram for describing a display apparatus, according to an exemplary embodiment.
  • the display apparatus 110 may be a transparent display formed in an area of the windshield 501 of the autonomous vehicle 1. That is, the display device 110 may be the transparent display 502 closely bonded to one surface of the window 501. According to an example, the display apparatus 110 may be a flexible thin film type and may be configured as an element that may transmit light and output an image of high brightness. Such a device may be any one of an LCD, an LED, and a transparent organic light emission diode (TOLED).
  • TOLED transparent organic light emission diode
  • the front window of the autonomous vehicle 1 is illustrated according to an example.
  • the display device 110 as a transparent display may be formed in an area of another vehicle window of the autonomous vehicle 1.
  • FIG. 6 is a diagram for describing a display apparatus, according to another exemplary embodiment.
  • the display apparatus 110 may have a size of the window 601 of the autonomous vehicle 1 and may be slidably coupled to the window 601. That is, the display device 110 may slide in one direction and overlap the area of the window 601 entirely, and may not exist in the other direction by sliding in the other direction and overlapping the area of the window 601.
  • the slidable display apparatus 110 may be formed in an area of another vehicle window of the autonomous vehicle 1.
  • the processor 120 may generate a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1.
  • the virtual driving environment image refers to an image showing a virtual driving environment outside the autonomous vehicle 1 as viewed toward an area of a vehicle window from an internal viewpoint of the autonomous vehicle 1.
  • the virtual driving environment image refers to an image representing the virtual driving environment outside the autonomous vehicle 1 that the occupant of the autonomous vehicle 1 may look toward the area of the vehicle window.
  • the virtual driving environment may be a driving environment in virtual reality in which the actual driving environment is partially reflected.
  • a real driving environment may be a road in a rainy city, but a virtual driving environment may be a road in a city with bright sunlight. Therefore, the virtual driving environment image may represent a virtual driving environment that the occupant can recognize as the actual driving environment when the passenger looks out of the autonomous vehicle 1 toward the area of the vehicle window.
  • the processor 120 may generate a virtual driving environment image based on the information about the actual driving environment and the information about the virtual reality around the autonomous driving vehicle 1.
  • the information on the actual driving environment may include information on a driving route for the autonomous vehicle 1 to travel to a destination, and may include an image of the actual driving environment.
  • the processor 120 may obtain information about the virtual reality from the storage device 270 of FIG. 2, or may obtain information about the virtual reality from an external network.
  • the virtual reality may be determined by a passenger's selection of the plurality of virtual realitys.
  • the processor 120 may generate a virtual driving environment image based on the information on the driving route from the current position of the autonomous vehicle 1 to the destination. More specifically, the processor 120 may acquire information about a driving route from the current position of the autonomous driving vehicle 1 to the destination, and reflect the driving route acquired in the preset virtual reality, and thus the virtual driving environment image. Can be generated. For example, the processor 120 may generate a virtual driving environment image by reflecting a state of a road corresponding to a driving route in a virtual reality representing a coast. According to an example, the processor 120 may obtain information about a destination from the occupant, and determine a driving route from the current position of the autonomous vehicle 1 to the destination. According to another example, the navigation 241 of FIG. 2 may determine the driving route from the current position of the autonomous vehicle 1 to the destination, and the processor 120 obtains information about the driving route from the navigation 241. can do.
  • the processor 120 may generate a virtual driving environment image corresponding to a point on the driving route. In other words, based on the point on the travel path where the autonomous vehicle 1 may be located, the processor 120 may display the autonomous vehicle 1 that the occupant of the autonomous vehicle 1 may look toward the area of the vehicle window. An image representing an external virtual driving environment may be generated. Similarly, the processor 120 may generate virtual driving environment images corresponding to each of the points based on the points on the driving route of the autonomous vehicle 1.
  • FIG. 7 is a diagram illustrating a UI for determining a driving route, according to an exemplary embodiment.
  • the processor 120 may provide a passenger with a UI 710 for determining a driving route. According to an example, the processor 120 may display the UI 710 on the display device 110 or on a separate display.
  • the occupant may input information on a desired destination through the input device 260 in the area 701 for inputting destination information in the UI 710. Accordingly, the occupant may enter a destination '1600 Pennsylvania Ave, D.C' in the area 701. The occupant may then select a travel route to the destination via the additional setting area 702. In other words, as shown in FIG. 7, the occupant may select a driving route via the freeway among several driving routes to the destination. Therefore, the processor 120 may determine the driving route via the highway selected by the occupant as the driving route to the destination of the autonomous vehicle 1.
  • FIG. 8 is a diagram illustrating a UI for setting a virtual reality, according to an exemplary embodiment.
  • the processor 120 may provide a passenger with a UI 810 for setting up virtual reality.
  • the occupant may select one of the plurality of virtual reality through the UI 810.
  • the occupants can access the UI 810 via the Rocky Mountains, Amazon Rainforest, Saharan Safari, Grand Canyon, Hawaii Volcanoes, and Big Sur. Virtual reality corresponding to any one of Big Sur, California) and a rolling irish hill.
  • the passenger may download another virtual reality from the external network by selecting the download menu 801.
  • the processor 120 may first provide the occupant with the UI 710 of FIG. 7 to determine the driving route to the destination of the autonomous vehicle 1, and then the UI 810 of FIG. 8. May be provided to the occupant to determine the virtual reality. Therefore, the processor 120 may generate a virtual driving environment image by using the determined driving route and the virtual reality.
  • FIG. 9 is a diagram for describing generating a virtual driving environment image.
  • the processor 120 generates a virtual driving environment image 930 corresponding to the partial section 910 based on the partial section 910 of the driving path of the autonomous vehicle 1 and the partial region 920 of the virtual reality. can do. That is, the processor 120 may generate a virtual driving environment image 930, which is a virtual driving environment that can be viewed by the occupant at the point 915 based on the point 915 where the autonomous vehicle 1 will travel in the future. Can be. More specifically, the processor 120 may recognize the road appearance of the section 910 based on the point 915, and reflect the recognized road appearance in the partial region 920 of the virtual reality, thereby providing a virtual driving environment. An image 930 may be generated.
  • the processor 120 since the road shape of the section 910 is a section that turns left after going straight a certain distance, the processor 120 reflects the road form that turns left after going a certain distance in the partial region 920 of the virtual reality, the virtual driving environment An image 930 may be generated. Similarly, the processor 120 may recognize a road view for each of the remaining sections of the driving route of the autonomous vehicle 1, and reflect the road view recognized for each section to other regions of the virtual reality, thereby autonomously driving the vehicle 1. A plurality of virtual driving environment images corresponding to the entire driving route may be generated.
  • FIG. 10 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels straight.
  • the processor 120 may generate virtual driving environment images 1020 and 1030 based on the points 1010 and 1015 on the driving route.
  • the processor 120 determines that the autonomous vehicle 1 is located at the point 1010 based on the fact that the autonomous vehicle 1 is located at the point 1010.
  • the driving environment image 1020 may be generated, and then the virtual driving environment image 1030 may be generated based on the position of the autonomous vehicle 1 at the point 1015.
  • the virtual driving environment image 1020 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1010.
  • the virtual driving environment image 1030 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1015. have. Accordingly, some objects 1026 of the virtual driving environment of the virtual driving environment image 1020 may disappear from the virtual driving environment image 1030, and some objects 1022, of the virtual driving environment of the virtual driving environment image 1020.
  • the size and shape of the image 1024 may be expressed in a virtual driving environment image 1030 by being changed to look closer, such as some objects 1032 and 1034.
  • the processor 120 continuously provides virtual passenger environment images 1020 and 1030 to the occupant so that the autonomous vehicle 1 travels to the occupant 1010 and 1015 in a straight line.
  • the actual driving environment is a road in the city, but since the virtual driving environment shown in the virtual driving environment images 1020 and 1030 is a seaside road, the processor 120 continuously occupies the virtual driving environment images 1020 and 1030.
  • FIG. 10 illustrates an example in which the processor 120 generates a virtual driving environment image 1020 and a virtual driving environment image 1030 corresponding to a point 1010 and a point 1015 on a driving route, but to a passenger.
  • the processor 120 may generate virtual driving environment images corresponding to many points on the driving route.
  • FIG. 11 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels in a right turn.
  • the processor 120 may generate virtual driving environment images 1120 and 1130 based on the points 1110 and 1115 on the driving route.
  • the processor 120 may determine that the autonomous vehicle 1 is located at the point 1110.
  • the driving environment image 1120 may be generated, and then the virtual driving environment image 1130 may be generated based on the position of the autonomous vehicle 1 at the point 1115.
  • the virtual driving environment image 1120 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1110.
  • the virtual driving environment image 1130 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1115. have. Accordingly, the processor 120 continuously provides the virtual driving environment images 1120 and 1130 to the occupant so that the autonomous vehicle 1 travels to the occupant 1110 and 1115 on the driving route to the right. Can be provided.
  • the virtual driving environment shown in the virtual driving environment images 1020 and 1030 is a road surrounded by trees, so that the processor 120 continuously processes the virtual driving environment images 1120 and 1130.
  • the processor 120 continuously processes the virtual driving environment images 1120 and 1130.
  • FIGS. 12 and 13 illustrate an embodiment of generating a plurality of virtual driving environment images corresponding to a point on a driving route.
  • the processor 120 may generate a plurality of virtual driving environment images 1210, 1220, and 1230 corresponding to a point 1205 on a driving route. More specifically, the processor 120 is a virtual driving environment outside the autonomous vehicle 1 that the occupant can look toward the area of the front windshield when the autonomous vehicle 1 is located at the point 1205.
  • a driving environment image 1210 may be generated, and a virtual driving environment image 1220 may be generated, which is a virtual driving environment outside the autonomous vehicle 1 which the occupant may look toward the area of the left side window pane.
  • a virtual driving environment image 1230 which is a virtual driving environment outside the autonomous vehicle 1, which the occupant can look toward the area of the right side vehicle window, may be generated.
  • the passenger feels more. You can experience a virtual driving environment.
  • the processor 120 may generate a plurality of virtual driving environment images 1310, 1320, and 1330 corresponding to the point 1305 on the driving route. More specifically, the processor 120 is a virtual driving environment outside the autonomous vehicle 1 that the occupant can view toward the area of the front window when the autonomous vehicle 1 is located at the point 1305.
  • the driving environment image 1310 may be generated, and a virtual driving environment image 1320 may be generated, which is a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the left side window pane.
  • a virtual driving environment image 1330 which is a virtual driving environment outside the autonomous vehicle 1, which the occupant may look toward the area of the right side vehicle window, may be generated.
  • a plurality of virtual driving environment images 1210, 1220, 1230 corresponding to the point 1205 As the plurality of virtual driving environment images 1310, 1320, and 1330 corresponding to the point 1205 are continuously displayed, the occupant may realize the autonomous vehicle 1 as a result of the points 1205 and 1305 on the driving route. You can experience driving straight ahead.
  • the actual driving environment is a rainy road
  • the virtual driving environment shown in the plurality of virtual driving environment images 1210, 1220, 1230, 1310, 1320, and 1330 is a road with sunlight, and thus, the processor 120 includes a plurality of roads.
  • the autonomous driving vehicle 1 is provided to the passenger.
  • the processor 120 may provide an external virtual driving environment that the occupant can see through other windows within the autonomous vehicle 1.
  • a virtual driving environment image may be generated.
  • the processor 120 may generate a virtual driving environment image based on an image of the actual driving environment of the autonomous vehicle 1. More specifically, the processor 120 may generate a virtual driving environment image reflecting the appearance of an object appearing in the image of the actual driving environment. For example, the processor 120 may generate a virtual driving environment image reflecting the appearance of the road shown in the image of the actual driving environment. In addition, the processor 120 may generate a virtual driving environment image in which the movement trajectory or the change rate of the object included in the image of the actual driving environment is reflected. For example, the processor 120 may generate a virtual driving environment image that reflects the movement trajectory and the speed of the vehicle that appear in the image of the actual driving environment.
  • the image sensor 228 of FIG. 2 may capture an image of the actual driving environment of the autonomous vehicle 1
  • the processor 120 may capture an image of the actual driving environment captured by the image sensor 228. Based on the image, the virtual driving environment image may be generated.
  • the processor 120 may obtain an image of the actual driving environment of the autonomous vehicle 1 from an external network.
  • FIG. 14 is a diagram illustrating an embodiment of a camera of an autonomous vehicle.
  • the cameras 1410, 1420, 1430, and 1440 may be installed on the outer surfaces of the window windows 401, 402, 403, 404 of the autonomous vehicle 1. That is, the cameras 1410, 1420, 1430, and 1440 may include a car window 401 corresponding to the front side of the autonomous vehicle 1, a car window 403 corresponding to the left side, a car window 402 corresponding to the right side, and a rear side. It may be installed on the outer surface of each of the corresponding window 404.
  • the cameras 1410, 1420, 1430, and 1440 may photograph an actual driving environment of the autonomous vehicle 1, which the occupant can look toward the area of the vehicle window, and acquire an image of the actual driving environment. .
  • 15 is a diagram illustrating an embodiment in which a processor generates a virtual driving environment image based on an image of an actual driving environment.
  • the image sensor 228 may be installed in the front windshield of the autonomous vehicle 1, and the image sensor 228 may photograph an actual driving environment that a passenger can see through the front windshield of the autonomous vehicle 1. .
  • the processor 120 may acquire an actual driving environment image 1510 captured by the image sensor 228.
  • the processor 120 may acquire the virtual reality 1520 selected by the occupant. Therefore, the processor 120 may generate the virtual driving environment image 1530 based on the actual driving environment image 1510 and the virtual reality 1520.
  • the processor 120 may recognize the road image through the actual driving environment image 1510, and generate the virtual driving environment image 1530 by reflecting the recognized road image in the virtual reality 1520. can do.
  • the processor 120 since the road shape of the actual driving environment image 1510 is a section in which the user turns left after going straight for a predetermined distance, the processor 120 reflects the road shape in which the user turns left after going straight in the virtual reality 1520, the virtual driving environment image. 1530 may be generated. Therefore, when the virtual driving environment image 1530 is displayed on the display device 110 formed in the area of the front window of the autonomous vehicle 1, the occupant may recognize the virtual driving environment image 1530 as the actual driving environment. have.
  • the processor 120 may recognize an object appearing in the actual driving environment image 1510 and determine whether to reflect the recognized object in the virtual driving environment image 1530. For example, the processor 120 may determine to reflect an object such as a traffic light and a crosswalk that appear in the actual driving environment image 1510 in the virtual driving environment image 1530. In addition, as shown in FIG. 15, the processor 120 may recognize the vehicles 1511, 1512, and 1513 on the road of the actual driving environment image 1510, and recognize the vehicles 1511, 1512, and 1513. It may be determined that the virtual driving environment image 1530 is not displayed.
  • the processor 120 may recognize the road area through the actual driving environment image 1510, and replace the area other than the road area with the virtual reality 1520 within the actual driving environment image 1510. Can be. That is, when the actual driving environment image 1510 is a road area surrounded by buildings, and the virtual reality 1520 is in a forest with trees, the processor 120 is an area corresponding to the buildings in the actual driving environment image 1510. By replacing with a forest area, a virtual driving environment image 1530 can be generated.
  • the processor 120 may recognize the driving route of the autonomous vehicle 1 through the road area shown in the actual driving environment image 1510, and not only the virtual driving environment image 1530 but also the driving route. Other virtual driving environment images corresponding to each of the points on the image may be generated.
  • an example of generating a virtual driving environment image 1530 is generated based on a camera installed in a front window of the autonomous vehicle 1, but the processor 120 is similarly installed in another window of the autonomous vehicle 1. Based on the camera, another virtual driving environment image may be generated. That is, the processor 120 may use the actual driving environment image acquired through the camera installed in the other vehicle window of the autonomous vehicle 1 to display another virtual driving environment to be displayed on the display device 110 formed in the area of the other vehicle window. An image can be generated.
  • the processor 120 may control the display apparatus 110 formed in the area of the vehicle window of the autonomous vehicle 1 to display a virtual driving environment image. Therefore, the occupant can experience the virtual driving environment as if he / she looks at the area of the car window inside the autonomous vehicle 1, as if experiencing the actual driving environment. That is, the processor 120 may intend the occupant to mistake the actual driving environment through the virtual driving environment shown in the virtual driving environment image.
  • the processor 120 may control the display apparatus 110 to continuously display virtual driving environment images corresponding to each of the points on the driving route of the autonomous driving vehicle 1. That is, the processor 120 may generate virtual driving environment images corresponding to each of the points on the driving route, and control the display apparatus 110 to continuously display the generated virtual driving environment images.
  • the processor 120 may control the display apparatus 110 formed in the area of the vehicle window to continuously display the virtual driving environment images 1020 and 1030. Accordingly, the occupant may view the virtual driving environment images 1020 and 1030 continuously displayed through the area of the car window, and thus the occupant may experience the virtual driving environment shown in the virtual driving environment images 1020 and 1030. The occupant may recognize that the autonomous vehicle 1 is going straight in the virtual driving environment.
  • the processor 120 may control the display apparatus 110 formed in the area of the vehicle window to continuously display the virtual driving environment images 1120 and 1130. Accordingly, the occupant may view the virtual driving environment images 1120 and 1130 continuously displayed through the area of the vehicle window, so that the occupant may experience the virtual driving environment shown in the virtual driving environment images 1120 and 1130. The occupant may recognize that the autonomous vehicle 1 turns right in the virtual driving environment.
  • the processor 120 may control the display apparatus 110 to display a virtual driving environment image in association with the movement of the autonomous vehicle 1.
  • the processor 120 acquires a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 travels straight, and a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 rotates left or right, respectively, as a video. can do.
  • the processor 120 may obtain a virtual driving environment image corresponding to the driving operation of the autonomous vehicle 1 from an external network.
  • the processor 120 may determine the autonomous vehicle 1.
  • the virtual driving environment image corresponding to the driving operation may be generated. Therefore, when the autonomous vehicle 1 travels straight, the processor 120 may control the display apparatus 110 to reproduce the virtual driving environment image corresponding to the straight driving as a moving image.
  • the processor 120 may control the display apparatus 110 to reproduce a virtual driving environment image corresponding to the left turn driving or the right turn driving as a moving image. Therefore, the processor 120 may display the virtual driving environment image through the display apparatus 110 in association with the movement of the autonomous vehicle 1, and thus the passenger may realize the autonomous vehicle 1 more realistically. You can experience that you are driving in a virtual driving environment.
  • the motion sensing device 238 of FIG. 2 may sense the motion of the autonomous vehicle 1, and the processor 120 may be based on the motion of the autonomous vehicle 1 sensed by the motion sensing device 238.
  • the display apparatus 110 may control to display a virtual driving environment image.
  • the movement of the autonomous vehicle 1 may include at least one of speed, acceleration, deceleration, roll, pitch, yaw, and a change amount thereof, of the autonomous vehicle, and the movement sensing device. 238 may sense at least one of an acceleration, a deceleration, a roll, a pitch, a yaw, and a change amount thereof of the autonomous vehicle 1.
  • the motion sensing device 238 may sense a traveling speed, a position change, and a direction change of the autonomous vehicle 1.
  • the motion sensing device 238 may sense a driving state or a stopped state of the autonomous vehicle 1.
  • the windshield of the autonomous vehicle 1 may display a virtual driving environment so as to correspond to the movement control of the autonomous vehicle 1 by the control device 290.
  • the controller 290 may control the movement of the autonomous vehicle 1
  • the windshield of the autonomous vehicle 1 may display an image representing the virtual driving environment corresponding to the movement of the autonomous vehicle. have.
  • the autonomous vehicle 1 may further include a reproducing apparatus, and the reproducing apparatus may reproduce the virtual driving environment according to the movement control of the autonomous vehicle 1 by the controller 290, and may drive the autonomous driving.
  • the windshield of the vehicle 1 can display the playback result of the playback device.
  • the controller 290 may control the movement of the autonomous vehicle 1
  • the reproduction apparatus may reproduce an image representing the virtual driving environment corresponding to the movement of the autonomous vehicle, and the vehicle window may reproduce the image. Can be displayed.
  • the virtual driving environment may be 3D graphic data
  • the playback device may be a graphics processing unit (GPU).
  • the processor 120 may control the display apparatus 110 to display virtual driving environment images corresponding to each of the points on the driving route of the autonomous vehicle 1 based on the movement of the autonomous vehicle 1. . While the display device 110 continuously displays the virtual driving environment images, when the motion sensing device 238 senses the stationary state of the autonomous vehicle 1, the processor 120 continuously displays the virtual driving environment images. Can be paused.
  • the processor 120 may control an image change rate of the virtual driving environment images displayed on the display apparatus 110 based on the movement of the autonomous vehicle 1.
  • the image change rate may refer to a temporal change rate of the virtual driving environment images displayed on the display apparatus 100. That is, the image change rate may be a speed at which the virtual driving environment images are developed in the display apparatus 110.
  • the processor 120 may display an image of the virtual driving environment displayed on the display device 110 based on the sensed speed. It is possible to control the rate of image change between them.
  • the processor 120 may control the deployment speed of the virtual driving images displayed on the display apparatus 110 faster than before, and the autonomous vehicle
  • the processor 120 may control the development speed of the virtual driving environment images displayed on the display apparatus 110 to be slower than before.
  • the processor 120 controls the deployment speed of the virtual driving environment images 1020 and 1030 to be displayed on the display device 110 faster.
  • the passenger may be provided with a more realistic driving experience through the virtual driving environment images 1020 and 1030 that are rapidly developed.
  • the processor 120 is displayed on each of the plurality of display apparatuses 110 based on the movement of the autonomous vehicle 1 sensed by the movement apparatus 238.
  • An image change rate between the virtual driving environment images may be controlled. That is, for example, when the display device 110 is formed in each of the area of the front window, the area of the right side window, and the area of the left side window of the autonomous vehicle 1, the processor 120 autonomously travels right. Based on the movement of the driving vehicle 1, the image change rate of the virtual driving environment images displayed on the display device 110 formed in the area of the left side window and the virtual display displayed on the display device 110 formed in the area of the right side window The image change rate of the driving environment images may be controlled differently.
  • the processor 120 may display a virtual driving environment that is displayed on the display device 110 formed in the area of the left side window pane when the autonomous vehicle 1 runs in a right turn.
  • the deployment speed of the images may be controlled to be faster than the deployment speed of the virtual driving environment images displayed on the display apparatus 110 formed in the area of the right side window.
  • the processor 120 may determine an area of the window window to display the virtual driving environment image among the areas of the plurality of window windows. According to an example, the processor 120 may determine an area of the window window to display the virtual driving environment image among the areas of the plurality of window windows based on the passenger's selection.
  • the processor 120 may determine an area of the car window corresponding to the line of sight of the passenger among the areas of the plurality of car windows as an area of the car window to display the virtual driving environment image.
  • the image sensor 228 of FIG. 2 may detect a driver's gaze, and the processor 120 may detect an area of the car window corresponding to the detected driver's gaze among the areas of the plurality of car windows, in a virtual driving environment. The area of the window to display the image may be determined.
  • a virtual driving environment image may be displayed on an area of a vehicle window corresponding to the eyes of the occupant based on a predetermined occupant among the plurality of occupants. Can be determined by the area of the windshield.
  • the processor 120 stops detecting the eyes of the occupants, and sets the area of the preset window as an area of the window to display the virtual driving environment image. You can decide.
  • FIG. 16 is a diagram illustrating a UI for selecting an area of a window to display a virtual driving environment according to an exemplary embodiment.
  • the processor 120 may provide a passenger with a UI 1610 that selects an area of the window window to display the virtual driving environment image among the areas of the plurality of window windows.
  • the display apparatus 110 includes an area of the front window 401 of the autonomous vehicle 1, an area of the left window 403, an area of the right window 402, and a rear window (
  • the processor 120 When formed in the area of 404 and in the area of the ceiling window 405, the processor 120 includes an area of the front window 401, an area of the left side window 402, an area of the right side window 402, a rear window 404.
  • the passenger 16 may be provided with a UI 1610 that selects which area of the vehicle window and the area of the ceiling window 405 to display the virtual driving environment image. Accordingly, the occupant may select an area of the vehicle window to display the virtual driving environment through the UI 1610.
  • FIG. 17 is a diagram illustrating an embodiment in which a virtual driving environment image is displayed on an area of a car window corresponding to a line of sight of a passenger.
  • the processor 120 may determine the areas 401 and 403 of the car window corresponding to the line of sight of the occupant 1710 among the areas 401, 402, 403 and 405 of the plurality of car windows as the area of the car window to display the virtual driving environment image. More specifically, the image sensor 228 may detect the gaze of the occupant 1710, and the processor 120 may virtually identify the areas 401 and 403 of the windshield located within a specific angle range with the gaze direction of the occupant 1710. It may be determined as an area of a vehicle window to display the driving environment image.
  • the processor 120 may determine the areas 401 and 402 of the car window corresponding to the gaze of the occupant 1710 as the area of the car window to display the virtual driving environment image. .
  • the processor 120 may control the display apparatus 110 to display content selectable by the occupant.
  • the content may be a content such as an image or a picture provided through the Internet or computer communication, or may be an image provided by the autonomous vehicle 1 itself.
  • the processor 120 may provide a passenger to select a content to the passenger and control the display device 110 to display the content selected by the passenger.
  • FIG. 18 is a diagram illustrating a UI for selecting content to display on a display apparatus, according to an exemplary embodiment.
  • the processor 120 may provide a passenger with a UI 1810 for selecting content to be displayed on the display apparatus 110.
  • the processor 120 may provide a passenger with a UI 1810 capable of selecting a YouTube, a movie library, or Netflix.
  • the processor 120 may provide a passenger with a UI 1810 capable of selecting an image captured by the image sensor 228 installed in the vehicle window, and provide a passenger with a UI 1810 capable of selecting a virtual driving environment image. Can be provided to
  • 19 is a diagram illustrating an embodiment of displaying a movie on a display device.
  • the occupant 1910 may select a movie as content to be displayed on the display apparatus 110 through the UI 1810 of FIG. 18. Subsequently, the occupant 1910 may lie in the autonomous vehicle 1 and look at the area of the car window 405 corresponding to the ceiling.
  • the processor 120 may control to display a movie on the display device 110 formed in the area of the window 405 corresponding to the ceiling of the occupant 1910.
  • the processor 120 may determine whether a preset event occurs. When a preset event occurs, the processor 120 may provide the passenger with information associated with the preset event. According to an example, when a preset event occurs, the processor 120 may control an image of an actual driving environment associated with the event to be displayed on the display apparatus 110. That is, when a preset event occurs, the processor 120 may control the passenger of the autonomous vehicle 1 to view the actual driving environment corresponding to the event through the display device 110. When the preset event occurs while the display device 110 displays the virtual driving environment image, the processor 120 may control the display device 110 to display the changed driving image as an image of the actual driving environment associated with the event. Can be.
  • the processor 120 may control the display apparatus 110 to simultaneously display the virtual driving environment image and the image of the actual driving environment associated with the event. That is, since the autonomous vehicle 1 displays the virtual driving environment image or the content through the display device 110 formed in the vehicle window, the occupant cannot see the actual driving environment around the autonomous vehicle 1. Information on the set event can be provided to the passenger separately.
  • the preset event may be a situation in which the autonomous vehicle 1 is stopped for a preset time. For example, when the autonomous vehicle 1 is stopped for 30 seconds or more due to traffic jam, the processor 120 may determine that a predetermined event has occurred. Subsequently, the processor 120 may control the traffic congestion situation, which is an actual driving environment associated with a preset event, to be displayed on the display apparatus 110.
  • the preset event may be a situation in which the weather around the autonomous vehicle 1 changes. For example, when the weather of the autonomous vehicle 1 changes from a clear weather to a rainy weather, the processor 120 may determine that a predetermined event has occurred. Subsequently, the processor 120 may control the display apparatus 110 to display a rainy image captured by the image sensor 228 which is an actual driving environment associated with a preset event.
  • the preset event may be a situation in which a change in the physical state of the occupant of the autonomous vehicle 1 exists. For example, when the occupant changes from the waking state to the sleeping state, the processor 120 may determine that a predetermined event has occurred. More specifically, the image sensor 228 may photograph the occupant's eyes, and the processor 120 may close the occupant's eyes more than a reference ratio compared to the normal state, or when the occupant's eyes are closed for more than the reference time. The passenger may be determined to be in a sleep state at. Subsequently, the processor 120 may stop displaying the virtual driving environment image and turn off the internal lighting 245 of the autonomous vehicle 1 in order not to disturb the sleep of the occupant.
  • 20 is a diagram illustrating a UI for setting an event, according to an exemplary embodiment.
  • the processor 120 may provide a UI 2010 for setting an event for the occupant.
  • the occupant is responsible for a number of events (e.g., the vehicle suddenly changes speed, the vehicle enters a freeway, the vehicle is located near a landmark, the vehicle arrives at its destination, the weather changes,
  • the UI 2010 may preset whether to be provided with information about future events based on which event of a road condition is dangerous and a situation where an emergency vehicle is around. Therefore, when the event selected in the UI 2010 occurs, the processor 120 may provide information about the selected event to the occupant.
  • FIG. 21 is a diagram for one embodiment of providing a passenger with information on an event when a predetermined event occurs.
  • the processor 120 may control the virtual driving environment image 2110 to be displayed on the display device 110.
  • the autonomous vehicle 1 may detect that a wild animal has suddenly appeared while driving, and the autonomous vehicle 1 may suddenly change speed. Subsequently, the processor 120 may determine that a predetermined event, which is a situation in which the speed suddenly changes, occurs. Subsequently, the processor 120 controls the display apparatus 110 displaying the virtual driving environment image 2110 to display an image 2120 of a wild animal, which is a real driving environment associated with a preset event, in a partial region. Can be.
  • FIG. 22 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
  • the processor 120 may control the virtual driving environment image 2210 to be displayed on the display device 110.
  • the autonomous vehicle 1 may recognize that the current location is around the landmark while driving, and the processor 120 may determine that a preset event, which is a situation that is located around the landmark, has occurred. Subsequently, the processor 120 may control the display apparatus 110 to change and display a landmark, which is an actual driving environment associated with a preset event, in the virtual driving environment image 2210 as a captured image 2220.
  • the processor 120 may display a display device that displays a virtual driving environment image 2210.
  • the passenger may view the actual driving environment 2220 through the transparently processed display device 110.
  • FIG. 23 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
  • the processor 120 may control the virtual driving environment image 2310 to be displayed on the display device 110.
  • the processor 120 may recognize that the surrounding weather is raining while the autonomous vehicle 1 is driving, and determine that a preset event has occurred. Subsequently, the processor 120 may provide information to the occupant via the sound output unit 282 that rain comes.
  • 24 is a flowchart of a method of operating an autonomous vehicle, according to an exemplary embodiment.
  • the method shown in FIG. 24 may be a method performed in time series by the autonomous vehicle 1 described in the drawings.
  • the autonomous vehicle 1 may acquire a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1.
  • the autonomous vehicle 1 may generate a virtual driving environment image based on the information on the driving route from the current position of the autonomous vehicle 1 to the destination. More specifically, the autonomous vehicle 1 may obtain information about a driving route from the current position of the autonomous vehicle 1 to the destination, and reflect the driving route obtained in the preset virtual reality, thereby driving virtually. An environment image can be generated. In addition, the autonomous vehicle 1 may generate virtual driving environment images corresponding to each of the points based on the points on the driving route of the autonomous vehicle 1.
  • the autonomous vehicle 1 may generate a virtual driving environment image based on an image of the actual driving environment of the autonomous vehicle 1.
  • the autonomous vehicle 1 may acquire an image of the actual driving environment of the autonomous vehicle 1, and the autonomous vehicle 1 may generate a virtual driving environment image based on the acquired image of the actual driving environment. Can be generated. More specifically, the autonomous vehicle 1 may recognize a road image through an image of an actual driving environment, and generate a virtual driving environment image by reflecting the recognized road image in a virtual reality.
  • the autonomous vehicle 1 may acquire a virtual driving environment image from an external network.
  • the autonomous vehicle 1 is a moving image of the virtual driving environment corresponding to the operation of driving the autonomous driving vehicle 1, and the virtual driving environment image corresponding to the operation of driving the left or right turn of the autonomous vehicle 1, respectively, the video Can be obtained.
  • the autonomous vehicle 1 may acquire a virtual driving environment image through the input device 260. More specifically, the input device 260 of the autonomous vehicle 1 may receive a selection of a virtual driving environment from the user, and acquire an image indicating the virtual driving environment selected from the user.
  • the autonomous vehicle 1 may control the display device formed in the area of the window of the autonomous vehicle 1 to display the virtual driving environment image.
  • the autonomous vehicle 1 may control the display device to continuously display virtual driving environment images corresponding to each of the points on the driving route of the autonomous vehicle 1.
  • the autonomous vehicle 1 may include a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 travels straight, and a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 travels left or right.
  • the display device can be controlled to play back as a moving picture.
  • the windshield of the autonomous vehicle 1 may display the virtual driving environment selected by the user in s2410. That is, the vehicle window of the autonomous vehicle 1 may display an image representing the selected virtual driving environment.
  • FIG. 25 is a detailed flowchart embodying step 2420 of FIG. 24.
  • the autonomous vehicle 1 may sense a movement of the autonomous vehicle 1.
  • the autonomous vehicle 1 may sense a traveling speed, a position change, and a direction change of the autonomous vehicle 1.
  • the autonomous vehicle 1 may sense a driving state or a stationary state of the autonomous vehicle 1.
  • the autonomous vehicle 1 may control the display device to display the virtual driving environment image based on the sensed movement.
  • the autonomous vehicle 1 may control the display device to display virtual driving environment images corresponding to each of the points on the driving route of the autonomous vehicle 1 based on the sensed movement. While the display device continuously displays the virtual driving environment images, when the stationary state of the autonomous vehicle 1 is sensed, the autonomous vehicle 1 may pause the continuous display of the virtual driving environment images.
  • the autonomous vehicle 1 may control an image change rate of the virtual driving environment images displayed on the display device based on the sensed movement.
  • the image change rate may be a speed at which the virtual driving environment images are developed on the display device. Therefore, when the driving speed of the autonomous vehicle 1 is sensed, the autonomous vehicle 1 may control the rate of change of the image between the virtual driving environment images displayed on the display device based on the sensed speed.
  • the autonomous vehicle 1 may control the display apparatus to reproduce a virtual driving environment image corresponding to the straight driving as a moving image.
  • the autonomous vehicle 1 may control the display apparatus 110 to reproduce a virtual driving environment image corresponding to the left turn driving or the right turn driving as a moving image when the autonomous driving vehicle 1 travels left or right. .
  • 26 is a detailed flowchart of a method of operating an autonomous vehicle according to an embodiment.
  • the method shown in FIG. 26 may be a method performed in time series by the autonomous vehicle 1 described above in the figures.
  • the autonomous vehicle 1 may acquire a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1.
  • Step 2610 may correspond to step 2410 of FIG. 24.
  • the autonomous vehicle 1 may control the display device formed in the area of the window of the autonomous vehicle 1 to display the virtual driving environment image.
  • Step 2620 may correspond to step 2420 of FIG. 24.
  • the autonomous vehicle 1 may determine whether a preset event occurs.
  • the preset event may be a situation in which a vehicle suddenly changes speed, a vehicle enters a highway, a vehicle is located near a landmark, a vehicle arrives at a destination, a weather is changed, and a surrounding
  • the road condition may be at least one of a dangerous situation and an emergency vehicle in the vicinity.
  • the autonomous vehicle 1 may control the passenger of the autonomous vehicle 1 to view the actual driving environment corresponding to the event through the display device.
  • the autonomous vehicle 1 controls the display device to change and display the image of the actual driving environment associated with the event. can do.
  • the autonomous vehicle 1 may control the display device to simultaneously display the virtual driving environment image and the image of the actual driving environment associated with the event.
  • the device includes a processor, memory for storing and executing program data, permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button And a user interface device such as the like.
  • Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor.
  • the computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc).
  • the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • the medium is readable by the computer, stored in the memory, and can be executed by the processor.
  • This embodiment can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions.
  • an embodiment may include an integrated circuit configuration such as memory, processing, logic, look-up table, etc. that may execute various functions by the control of one or more microprocessors or other control devices. You can employ them.
  • the present embodiment includes various algorithms implemented in C, C ++, Java (data structures, processes, routines or other combinations of programming constructs). It may be implemented in a programming or scripting language such as Java), an assembler, or the like.
  • the functional aspects may be implemented with an algorithm running on one or more processors.
  • the present embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing.
  • Terms such as “mechanism”, “element”, “means”, “configuration” can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
  • connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention provides an autonomous vehicle and an operation method of same, the autonomous vehicle enabling displaying of a virtual driving environment image, which substitutes the actual driving environment of the autonomous vehicle, by means of a display device formed on an area of a window of the autonomous vehicle, thereby providing a passenger with a more realistic experience with respect to the virtual driving environment.

Description

[규칙 제26조에 의한 보정 19.08.2016] 자율 주행 차량 및 그의 동작 방법[Correction by rule 26.08.2016] Autonomous vehicle and its operation method
본 개시는 자율 주행 차량 및 그의 동작 방법에 관한 것이다.The present disclosure relates to an autonomous vehicle and a method of operation thereof.
최근 자율 주행 차량에 대한 관심이 높아지고 있다. 특히 자동차 수요증가에 따른 교통혼잡을 해소함과 아울러 사람이나 다른 차량 등의 장애물을 안전하게 회피하기 위해, 자율 주행과 관련된 다양한 부가 기능이 지속적으로 개발되고 있다. 예를 들면, 차선 유지 시스템과 관련된 수 많은 알고리즘이 존재한다.Recently, interest in autonomous vehicles is increasing. In particular, various additional functions related to autonomous driving have been continuously developed to alleviate traffic congestion caused by increasing demand for automobiles and to safely avoid obstacles such as people and other vehicles. For example, there are many algorithms associated with lane keeping systems.
또한 인터넷 연결성이 확대되면서, 각종 디바이스나 자동차로부터 생성되는 데이터 양이 급증하고 있어 이를 이용한 다양한 서비스가 등장하고 있다.In addition, as internet connectivity expands, the amount of data generated from various devices and automobiles is rapidly increasing, and various services using the same are emerging.
따라서 각종 데이터를 이용하여 탑승자에게 친숙한 자율 주행 경험을 제공할 수 있는 방법 및 자율 주행 차량이 요구되고 있다Therefore, there is a demand for a method and an autonomous vehicle that can provide a familiar autonomous driving experience to passengers using various data.
자율 주행 차량 및 그의 동작 방법을 제공하는 데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.An autonomous vehicle and its operation method are provided. The technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and further technical problems can be inferred from the following embodiments.
일 측면에 따라, 자율 주행 차량은, 자율 주행 차량의 차창(car window)의 영역에 형성되는 디스플레이 장치; 및 디스플레이 장치가 자율 주행 차량의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 표시하도록 제어하는 프로세서;를 포함할 수 있다.According to an aspect, an autonomous vehicle includes a display device formed in an area of a car window of an autonomous vehicle; And a processor that controls the display device to display a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle.
다른 측면에 따라, 자율 주행 차량(autonomous vehicle)의 동작 방법은, 자율 주행 차량의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 획득하는 단계; 및 자율 주행 차량의 차창(car window)의 영역에 형성되는 디스플레이 장치가 가상 주행 환경 영상을 표시하도록 제어하는 단계;를 포함할 수 있다.According to another aspect, an operating method of an autonomous vehicle includes: obtaining a virtual driving environment image in place of an actual driving environment of the autonomous vehicle; And controlling a display device formed in an area of a car window of an autonomous vehicle to display a virtual driving environment image.
또 다른 측면에 따라, 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공된다.According to another aspect, there is provided a computer readable recording medium having recorded thereon a program for implementing the method.
또 다른 측면에 따라, 자율 주행 차량은, 사용자로부터 가상 주행 환경을 선택 받는 입력 장치; 및 선택된 가상 주행 환경을 디스플레이하는 차창을 포함할 수 있다.According to another aspect, an autonomous vehicle may include an input device configured to receive a virtual driving environment from a user; And a windshield displaying the selected virtual driving environment.
본 실시예에 따르면, 실제 주행 환경을 대신하는 가상 주행 환경 영상을, 자율 주행 차량의 차창의 영역에 형성되는 디스플레이 장치를 통해 탑승자에게 제공하는 바, 탑승자에게 가상 주행 환경에 대한 경험을 보다 현실감 있게 제공할 수 있다.According to the present embodiment, the virtual driving environment image, which replaces the actual driving environment, is provided to the occupant through a display device formed in the area of the window of the autonomous vehicle, and thus the passenger can experience the virtual driving environment more realistically. Can provide.
도 1은 일 실시예에 따른 자율 주행 차량(autonomous vehicle)을 나타내는 도면이다.1 is a diagram illustrating an autonomous vehicle according to an embodiment.
도 2는 일 실시예에 따른 자율 주행 차량의 상세 하드웨어 구성들을 나타내는 블록도이다.2 is a block diagram illustrating detailed hardware configurations of an autonomous vehicle according to an embodiment.
도 3은 일 실시예에 따른 자율 주행 차량의 블록도이다.3 is a block diagram of an autonomous vehicle according to an embodiment.
도 4는 일 실시예에 따른 자율 주행 차량의 차창을 설명하기 위한 도면이다.4 is a diagram illustrating a windshield of an autonomous vehicle according to an exemplary embodiment.
도 5는 일 실시예에 따른 디스플레이 장치를 설명하기 위한 도면이다.5 is a diagram for describing a display apparatus, according to an exemplary embodiment.
도 6는 다른 실시예에 따른 디스플레이 장치를 설명하기 위한 도면이다.6 is a diagram for describing a display apparatus, according to another exemplary embodiment.
도 7은 일 실시예에 따른 주행 경로를 결정하기 위한 UI를 나타내는 도면이다.7 is a diagram illustrating a UI for determining a driving route, according to an exemplary embodiment.
도 8은 일 실시예에 따른 가상 현실을 설정하기 위한 UI를 나타내는 도면이다.8 is a diagram illustrating a UI for setting a virtual reality, according to an exemplary embodiment.
도 9는 가상 주행 환경 영상을 생성하는 것을 설명하기 위한 도면이다.9 is a diagram for describing generating a virtual driving environment image.
도 10은 자율 주행 차량이 직진으로 주행하는 지점들에 대응되는 가상 주행 환경 영상들을 생성하는 실시예를 나타내는 도면이다.FIG. 10 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels straight.
도 11은 자율 주행 차량이 우회전으로 주행하는 지점들에 대응되는 가상 주행 환경 영상들을 생성하는 실시예를 나타내는 도면이다.FIG. 11 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels in a right turn.
도 12 및 13은 주행 경로 상의 지점에 대응되는 복수의 가상 주행 환경 영상들을 생성하는 실시예를 나타내는 도면이다.12 and 13 illustrate an embodiment of generating a plurality of virtual driving environment images corresponding to a point on a driving route.
도 14은 자율 주행 차량의 카메라의 일 실시예를 나타내는 도면이다.14 is a diagram illustrating an embodiment of a camera of an autonomous vehicle.
도 15는 프로세서가 실제 주행 환경에 대한 영상에 기초하여, 가상 주행 환경 영상을 생성하는 실시예를 나타내는 도면이다.15 is a diagram illustrating an embodiment in which a processor generates a virtual driving environment image based on an image of an actual driving environment.
도 16은 일 실시예에 따라 가상 주행 환경을 표시할 차창의 영역을 선택하는 UI를 나타내는 도면이다.FIG. 16 is a diagram illustrating a UI for selecting an area of a window to display a virtual driving environment according to an exemplary embodiment.
도 17은 탑승자의 시선에 대응되는 차창의 영역에 가상 주행 환경 영상을 표시하는 실시예를 나타내는 도면이다.FIG. 17 is a diagram illustrating an embodiment in which a virtual driving environment image is displayed on an area of a car window corresponding to a line of sight of a passenger.
도 18은 일 실시예에 따라 디스플레이 장치에 표시할 컨텐츠를 선택하는 UI를 나타내는 도면이다.18 is a diagram illustrating a UI for selecting content to display on a display apparatus, according to an exemplary embodiment.
도 19는 디스플레이 장치에 영화를 표시하는 실시예를 나타내는 도면이다.19 is a diagram illustrating an embodiment of displaying a movie on a display device.
도 20은 일 실시예에 따른 이벤트를 설정할 수 있는 UI를 나타내는 도면이다.20 is a diagram illustrating a UI for setting an event, according to an exemplary embodiment.
도 21은 기 설정된 이벤트가 발생하는 경우, 프로세서가 발생된 이벤트에 대한 정보를 탑승자에게 제공하는 실시예를 나타내는 도면이다.FIG. 21 is a diagram for one embodiment of providing a passenger with information on an event when a predetermined event occurs.
도 22는 기 설정된 이벤트가 발생하는 경우, 프로세서가 발생된 이벤트에 대한 정보를 탑승자에게 제공하는 실시예를 나타내는 도면이다.FIG. 22 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
도 23은 기 설정된 이벤트가 발생하는 경우, 프로세서가 발생된 이벤트에 대한 정보를 탑승자에게 제공하는 실시예를 나타내는 도면이다.FIG. 23 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
도 24는 일 실시예에 따른 자율 주행 차량의 동작 방법의 흐름도이다.24 is a flowchart of a method of operating an autonomous vehicle, according to an exemplary embodiment.
도 25는 도 24의 단계 2420를 구체화한 상세 흐름도이다.FIG. 25 is a detailed flowchart embodying step 2420 of FIG. 24.
도 26은 일 실시예에 따른 자율 주행 차량의 동작 방법의 상세 흐름도이다.26 is a detailed flowchart of a method of operating an autonomous vehicle according to an embodiment.
일 측면에 따라, 자율 주행 차량은, 자율 주행 차량의 차창(car window)의 영역에 형성되는 디스플레이 장치; 및 디스플레이 장치가 자율 주행 차량의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 표시하도록 제어하는 프로세서;를 포함할 수 있다.According to an aspect, an autonomous vehicle includes a display device formed in an area of a car window of an autonomous vehicle; And a processor that controls the display device to display a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle.
또한, 가상 주행 환경 영상은, 자율 주행 차량 내부의 시점(viewpoint)에서 차창의 영역을 향해 바라본 자율 주행 차량 외부의 가상 주행 환경을 나타내는 영상일 수 있다.The virtual driving environment image may be an image showing a virtual driving environment outside of the autonomous vehicle viewed from the viewpoint of the inside of the autonomous vehicle toward the area of the vehicle window.
또한, 프로세서는, 자율 주행 차량의 현재 위치로부터 목적지까지의 주행 경로에 대한 정보를 획득하고, 주행 경로 상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 생성할 수 있다.In addition, the processor may obtain information about a driving route from a current position of the autonomous vehicle to a destination, and generate virtual driving environment images corresponding to each of the points on the driving route.
또한, 자율 주행 차량의 움직임을 센싱하는 움직임 센싱 장치;를 더 포함하고, 프로세서는, 센싱된 움직임에 기초하여, 디스플레이 장치가 가상 주행 환경 영상들을 표시하도록 제어할 수 있다.The apparatus may further include a motion sensing device that senses a movement of the autonomous vehicle, and the processor may control the display device to display the virtual driving environment images based on the sensed movement.
또한, 움직임 센싱 장치는, 자율 주행 차량의 주행 속도를 센싱하고, 프로세서는, 센싱된 주행 속도에 기초하여, 디스플레이 장치에서 표시되는 가상 주행 환경 영상들 간의 영상 변화율을 제어할 수 있다.In addition, the motion sensing device senses the traveling speed of the autonomous vehicle, and the processor may control the rate of change of the image between the virtual driving environment images displayed on the display device based on the sensed driving speed.
또한, 프로세서는, 디스플레이 장치가 복수 개인 경우, 센싱된 움직임에 기초하여, 복수개의 디스플레이 장치들 각각에서 표시되는 가상 주행 환경 영상들 간의 영상 변화율을 제어할 수 있다.In addition, when there are a plurality of display apparatuses, the processor may control an image change rate between virtual driving environment images displayed on each of the plurality of display apparatuses based on the sensed movement.
또한, 실제 주행 환경에 대한 영상을 촬영하는 이미지 센서;를 더 포함하고, 프로세서는, 촬영된 실제 주행 환경에 대한 영상에 기초하여, 가상 주행 환경 영상을 생성할 수 있다.The apparatus may further include an image sensor configured to capture an image of an actual driving environment, and the processor may generate a virtual driving environment image based on the captured image of the actual driving environment.
또한, 프로세서는, 실제 주행 환경에 대한 영상에 나타난 객체의 모습이 반영된 가상 주행 환경 영상을 생성할 수 있다.In addition, the processor may generate a virtual driving environment image reflecting the appearance of the object shown in the image of the actual driving environment.
또한, 프로세서는, 복수의 가상 현실들 중에서 자율 주행 차량의 탑승자로부터 선택된 가상 현실에 기초하여, 가상 주행 환경 영상을 생성할 수 있다.In addition, the processor may generate a virtual driving environment image based on a virtual reality selected from a passenger of the autonomous vehicle among a plurality of virtual realitys.
또한, 프로세서는, 기 설정된 이벤트가 발생하는 지 여부를 판단하고, 이벤트가 발생하는 경우, 자율 주행 차량의 탑승자가 디스플레이 장치를 통해 이벤트에 대응되는 실제 주행 환경을 볼 수 있도록 제어할 수 있다.In addition, the processor may determine whether a predetermined event occurs, and when an event occurs, the processor of the autonomous vehicle may control the actual driving environment corresponding to the event through the display device.
다른 측면에 따라, 자율 주행 차량(autonomous vehicle)의 동작 방법은, 자율 주행 차량의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 획득하는 단계; 및 자율 주행 차량의 차창(car window)의 영역에 형성되는 디스플레이 장치가 가상 주행 환경 영상을 표시하도록 제어하는 단계;를 포함할 수 있다.According to another aspect, an operating method of an autonomous vehicle includes: obtaining a virtual driving environment image in place of an actual driving environment of the autonomous vehicle; And controlling a display device formed in an area of a car window of an autonomous vehicle to display a virtual driving environment image.
또 다른 측면에 따라, 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공된다.According to another aspect, there is provided a computer readable recording medium having recorded thereon a program for implementing the method.
또 다른 측면에 따라, 자율 주행 차량은, 사용자로부터 가상 주행 환경을 선택 받는 입력 장치; 및 선택된 가상 주행 환경을 디스플레이하는 차창을 포함할 수 있다.According to another aspect, an autonomous vehicle may include an input device configured to receive a virtual driving environment from a user; And a windshield displaying the selected virtual driving environment.
이하 첨부된 도면을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다. 하기 실시예는 기술적 사상을 구체화하기 위한 것일 뿐 권리범위를 제한하거나 한정하는 것이 아님은 물론이다. 상세한 설명 및 실시예로부터 해당 기술분야에 속하는 전문가가 용이하게 유추할 수 있는 것은 권리범위에 속하는 것으로 해석된다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. The following examples are only for the purpose of embodying the spirit of the present invention, and of course, it does not limit or limit the scope of rights. From the detailed description and examples, what can be easily inferred by those skilled in the art is interpreted as belonging to the scope of rights.
본 명세서에서 사용되는 "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 도는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.As used herein, the term “consisting of” or “comprising” should not be construed as including all of the various elements, or steps, described in the specification, and some or some of them may be included. Should not be included, or should be construed to further include additional components or steps. In addition, the terms "... unit", "module", etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
또한, 본 명세서에서 사용되는 "제 1" 또는 "제 2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 이러한 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하거나 설명의 편의를 위한 목적으로 사용될 수 있다.In addition, terms including ordinal numbers such as “first” or “second” as used herein may be used to describe various components, but these terms may distinguish one component from another or It can be used for convenience.
이하에서는 도면을 참조하여 실시예들을 상세히 설명한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른 자율 주행 차량(autonomous vehicle)을 나타내는 도면이다.1 is a diagram illustrating an autonomous vehicle according to an embodiment.
자율 주행 차량(1)은 탑승자의 개입 없이 스스로 주행 가능한 차량을 의미할 수 있다.The autonomous vehicle 1 may refer to a vehicle that can drive itself without intervention of a passenger.
자율 주행 차량(1)은 자율 주행 차량(1)의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 표시할 수 있다. 다시 말해, 자율 주행 차량(1)은 자율 주행 차량(1) 주변의 실제 주행 환경과는 다른 가상 주행 환경을 나타내는 영상을 표시할 수 있다. 예를 들어, 자율 주행 차량(1)이 도심 내를 주행하고 있는 경우, 자율 주행 차량(1) 주변의 실제 주행 환경에는 수 많은 건물들이 있을 수 있지만, 자율 주행 차량(1)은 숲 속을 나타내는 가상 주행 환경 영상을 표시할 수 있다. 따라서, 자율 주행 차량(1)의 탑승자는 자율 주행 차량(1)이 표시하는 가상 주행 환경 영상을 통해, 도심 내가 아닌 숲 속을 주행하고 있다고 경험할 수 있다.The autonomous vehicle 1 may display a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1. In other words, the autonomous vehicle 1 may display an image representing a virtual driving environment different from the actual driving environment around the autonomous vehicle 1. For example, if the autonomous vehicle 1 is traveling in the city center, there may be many buildings in the actual driving environment around the autonomous vehicle 1, but the autonomous vehicle 1 represents a forest. The virtual driving environment image may be displayed. Therefore, the passenger of the autonomous vehicle 1 may experience that the autonomous vehicle 1 is driving in the forest, not in the city center, through the virtual driving environment image displayed by the autonomous vehicle 1.
자율 주행 차량(1)은 자율 주행 차량(1)의 차창(car window)의 영역에 형성된 디스플레이 장치를 통해 가상 주행 환경 영상을 표시할 수 있다. 따라서, 탑승자는 자율 주행 차량(1)의 차창의 영역을 바라보는 경우, 탑승자는 차창의 영역에 형성된 디스플레이 장치에서 표시되는 가상 주행 환경 영상을 볼 수 있으므로, 자율 주행 차량(1) 주변의 실제 주행 환경이 아닌 가상 주행 환경을 경험할 수 있다. The autonomous vehicle 1 may display a virtual driving environment image through a display device formed in an area of a car window of the autonomous vehicle 1. Therefore, when the occupant looks at the area of the window of the autonomous vehicle 1, the occupant may view the virtual driving environment image displayed on the display device formed in the area of the window, so that the actual driving around the autonomous vehicle 1 is performed. Experience a virtual driving environment rather than an environment.
또한, 자율 주행 차량(1)은, 자율 주행 차량(1)의 움직임과 연동하여, 가상 주행 환경 영상을 디스플레이 장치를 통해 표시할 수 있는 바, 탑승자는 보다 실감나게 자율 주행 차량(1)이 가상 주행 환경을 주행하고 있다는 경험을 할 수 있다.In addition, the autonomous vehicle 1 may display a virtual driving environment image through a display device in conjunction with the movement of the autonomous vehicle 1, and thus, the autonomous vehicle 1 may be virtually realized. Experience the driving environment.
도 2는 일 실시예에 따른 자율 주행 차량의 상세 하드웨어 구성들을 나타내는 블록도이다.2 is a block diagram illustrating detailed hardware configurations of an autonomous vehicle according to an embodiment.
자율 주행 차량(1)은, 추진 장치(210), 전원 공급 장치(299), 통신 장치(250), 입력 장치(260), 출력 장치(280), 저장 장치(270), 주행 장치(220), 센싱 장치(230), 주변 장치(240), 및 제어 장치(290)를 포함할 수 있다. 다만, 자율 주행 차량(1)에는 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함되거나, 또는 자율 주행 차량(1)에는 도 2에 도시된 구성요소들 중 일부가 포함되지 않을 수 도 있음을, 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The autonomous vehicle 1 includes a propulsion device 210, a power supply device 299, a communication device 250, an input device 260, an output device 280, a storage device 270, and a travel device 220. , The sensing device 230, the peripheral device 240, and the control device 290. However, the autonomous vehicle 1 may further include other general-purpose components in addition to the components illustrated in FIG. 2, or the autonomous vehicle 1 may not include some of the components illustrated in FIG. 2. It may be understood by those of ordinary skill in the art related to the present embodiment.
추진 장치(210)는 엔진/모터(211), 에너지원(212), 변속기(213) 및 휠/타이어(214)를 포함할 수 있다.The propulsion device 210 may include an engine / motor 211, an energy source 212, a transmission 213 and a wheel / tire 214.
엔진/모터(211)는 내연 기관, 전기 모터, 증기 기관, 및 스틸링 엔진(stirling engine) 간의 임의의 조합이 될 수 있다. 예를 들어, 자율 주행 차량(1)이 가스-전기 하이브리드 자동차(gas-electric hybrid car)인 경우, 엔진/모터(211)는 가솔린 엔진 및 전기 모터가 될 수 있다.The engine / motor 211 may be any combination between an internal combustion engine, an electric motor, a steam engine, and a stirling engine. For example, when the autonomous vehicle 1 is a gas-electric hybrid car, the engine / motor 211 may be a gasoline engine and an electric motor.
에너지원(212)은 엔진/모터(211)에 전체적으로 또는 부분적으로 동력을 제공하는 에너지의 공급원일 수 있다. 즉, 엔진/모터(211)는 에너지원(212)을 기계 에너지로 변환하도록 구성될 수 있다. 에너지원(212)의 예로는 가솔린, 디젤, 프로판, 다른 압축 가스 기반 연료들, 에탄올, 태양광 패널(solar panel), 배터리, 및 다른 전기 전력원들 중 적어도 하나가 될 수 있다. 또는, 에너지원(212)은 연료 탱크, 배터리, 커패시터, 및 플라이휠(flywheel) 중 적어도 하나가 될 수 있다. 에너지원(212)은 자율 주행 차량(1)의 시스템 및 장치에 에너지를 제공할 수 있다. Energy source 212 may be a source of energy that powers the engine / motor 211 in whole or in part. That is, engine / motor 211 may be configured to convert energy source 212 into mechanical energy. Examples of energy sources 212 may be at least one of gasoline, diesel, propane, other compressed gas based fuels, ethanol, solar panels, batteries, and other electrical power sources. Alternatively, the energy source 212 may be at least one of a fuel tank, a battery, a capacitor, and a flywheel. The energy source 212 can provide energy to the systems and devices of the autonomous vehicle 1.
변속기(213)는 기계적 동력을 엔진/모터(211)로부터 휠/타이어(214)에 전달하도록 구성될 수 있다. 예를 들어, 변속기(213)는 기어박스, 클러치, 차동 장치(differential), 및 구동축 중 적어도 하나를 포함할 수 있다. 변속기(213)가 구동축들을 포함하는 경우, 구동축들은 휠/타이어(214)에 결합되도록 구성되는 하나 이상의 차축들을 포함할 수 있다. Transmission 213 may be configured to transfer mechanical power from engine / motor 211 to wheel / tire 214. For example, the transmission 213 may include at least one of a gearbox, a clutch, a differential, and a drive shaft. When the transmission 213 includes drive shafts, the drive shafts may include one or more axles configured to be coupled to the wheel / tire 214.
휠/타이어(214)은 외발 자전거, 자전거/오토바이, 삼륜차, 또는 자동차/트럭의 사륜 형식을 포함한 다양한 형식들로 구성될 수 있다. 예를 들어, 6개 이상의 휠을 포함하는 것과 같은 다른 휠/타이어 형식이 가능할 수 있다. 휠/타이어(214)은 변속기(213)에 고정되게 부착되어 있는 적어도 하나의 휠, 및 구동면(driving surface)과 접촉할 수 있는 휠의 림(rim)에 결합되어 있는 적어도 하나의 타이어를 포함할 수 있다.The wheel / tire 214 may be configured in a variety of formats, including a unicycle, a bike / motorcycle, a tricycle, or a four wheel type of a car / truck. For example, other wheel / tire types may be possible, such as including six or more wheels. The wheel / tire 214 includes at least one wheel fixedly attached to the transmission 213 and at least one tire coupled to a rim of the wheel that can contact the driving surface. can do.
주행 장치(220)는 브레이크 유닛(221), 조향 유닛(222) 및 스로틀(223)을 포함할 수 있다.The traveling device 220 may include a brake unit 221, a steering unit 222, and a throttle 223.
조향 유닛(222)은 자율 주행 차량(1)의 방향을 조절하도록 구성되는 매커니즘들의 조합이 될 수 있다.The steering unit 222 may be a combination of mechanisms configured to adjust the direction of the autonomous vehicle 1.
스로틀(223)은 엔진/모터(211)의 동작 속도를 제어하여, 자율 주행 차량(1)의 속도를 제어하도록 구성되는 매커니즘들의 조합이 될 수 있다. 또한, 스로틀(223)은 스로틀 개방량을 조절하여 엔진/모터(211)로 유입되는 연료공기의 혼합 가스 양을 조절할 수 있으며, 스로틀 개방량을 조절하여 동력 및 추력을 제어할 수 있다.The throttle 223 may be a combination of mechanisms configured to control the speed of operation of the engine / motor 211 to control the speed of the autonomous vehicle 1. In addition, the throttle 223 may adjust the amount of throttle opening to adjust the amount of mixed gas of fuel air flowing into the engine / motor 211, and may control power and thrust by adjusting the throttle opening.
브레이크 유닛(221)은 자율 주행 차량(1)을 감속시키도록 구성되는 매커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크 유닛(221)은 휠/타이어(214)의 속도를 줄이기 위해 마찰을 사용할 수 있다.The brake unit 221 may be a combination of mechanisms configured to decelerate the autonomous vehicle 1. For example, the brake unit 221 may use friction to reduce the speed of the wheel / tire 214.
센싱 장치(230)는 자율 주행 차량(1)이 위치해 있는 환경에 관한 정보를 감지하도록 구성되는 다수의 센서들을 포함할 수 있고, 뿐만 아니라 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 예를 들어, 센싱 장치(230)는 GPS(Global Positioning System)(224), IMU(Inertial Measurement Unit)(225), RADAR 유닛(226), LIDAR 유닛(227), 및 이미지 센서(228)를 포함할 수 있다. 또한, 센싱 장치(230)는 온/습도 센서(232), 적외선 센서(233), 기압 센서(235), 근접 센서(236), 및 RGB 센서(illuminance sensor)(237) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing device 230 may include a plurality of sensors configured to sense information about the environment in which the autonomous vehicle 1 is located, as well as one or more actuators configured to modify the position and / or orientation of the sensors. Can include them. For example, the sensing device 230 includes a Global Positioning System (GPS) 224, an Inertial Measurement Unit (IMU) 225, a RADAR unit 226, a LIDAR unit 227, and an image sensor 228. can do. In addition, the sensing device 230 may include at least one of a temperature / humidity sensor 232, an infrared sensor 233, a barometric pressure sensor 235, a proximity sensor 236, and an RGB sensor illuminance sensor 237. It may be, but is not limited thereto. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted.
또한, 센싱 장치(230)는 자율 주행 차량(1)의 움직임을 센싱할 수 있는 움직임 센싱 장치(238)를 포함할 수 있다. 움직임 센싱 장치(238)는 지자기 센서(Magnetic sensor)(229), 가속도 센서(Acceleration sensor)(231), 및 자이로스코프 센서(234)를 포함할 수 있다. In addition, the sensing device 230 may include a motion sensing device 238 capable of sensing the movement of the autonomous vehicle 1. The motion sensing device 238 may include a geomagnetic sensor 229, an acceleration sensor 231, and a gyroscope sensor 234.
GPS(224)는 자율 주행 차량(1)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(224)는 지구에 대한 자율 주행 차량(1)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.The GPS 224 may be a sensor configured to estimate the geographic location of the autonomous vehicle 1. That is, the GPS 224 may include a transceiver configured to estimate the position of the autonomous vehicle 1 with respect to the earth.
IMU(225)는 관성 가속도에 기초하여 자율 주행 차량(1)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.The IMU 225 may be a combination of sensors configured to detect positional and orientation changes of the autonomous vehicle 1 based on inertial acceleration. For example, the combination of sensors may include accelerometers and gyroscopes.
RADAR 유닛(226)은 무선 신호를 사용하여 자율 주행 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 또한, RADAR 유닛(226)은, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.The RADAR unit 226 may be a sensor configured to detect objects in the environment in which the autonomous vehicle 1 is located using a wireless signal. In addition, the RADAR unit 226 can be configured to sense the speed and / or direction of the objects.
LIDAR 유닛(227)은 레이저를 사용하여 자율 주행 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 잇다. 보다 구체적으로, LIDAR 유닛(227)은 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. LIDAR 유닛(227)은 코히런트(coherent)(예컨대, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.The LIDAR unit 227 may be a sensor configured to detect objects in the environment in which the autonomous vehicle 1 is located using a laser. More specifically, LIDAR unit 227 may include a laser light source and / or laser scanner configured to emit a laser, and a detector configured to detect reflection of the laser. The LIDAR unit 227 may be configured to operate in coherent (eg, using hetirodyne detection) or noncoherent detection mode.
이미지 센서(228)는 자율 주행 차량(1)의 내부의 3차원 영상들을 기록하도록 구성되는 스틸 카메라 또는 비디오 카메라가 될 수 있다. 예를 들어, 이미지 센서(228)는 다수의 카메라들을 포함할 수 있고, 다수의 카메라들은 자율 주행 차량(1)의 내부 및 외부 상의 다수의 위치들에 배치될 수 있다.The image sensor 228 may be a still camera or a video camera configured to record three-dimensional images of the interior of the autonomous vehicle 1. For example, the image sensor 228 may include a number of cameras, which may be disposed at a number of locations on the inside and outside of the autonomous vehicle 1.
주변 장치(240)는 네비게이션(241), 라이트(242), 방향 지시등(243), 와이퍼(244), 내부 조명(245), 히터(246), 및 에어컨(247)을 포함할 수 있다.The peripheral device 240 may include a navigation 241, a light 242, a turn signal 243, a wiper 244, an interior light 245, a heater 246, and an air conditioner 247.
네비게이션(241)은 자율 주행 차량(1)에 대한 운행 경로를 결정하도록 구성되는 시스템일 수 있다. 네비게이션(241)은 자율 주행 차량(1)이 주행하고 있는 동안 동적으로 운행 경로를 갱신하도록 구성될 수 있다. 예를 들어, 네비게이션(241)은 자율 주행 차량(1)에 대한 운행 경로를 결정하기 위해, GPS(224) 및 지도들로부터의 데이터를 이용할 수 있다.The navigation 241 may be a system configured to determine a travel route for the autonomous vehicle 1. The navigation 241 may be configured to dynamically update the travel route while the autonomous vehicle 1 is traveling. For example, the navigation 241 may use data from the GPS 224 and maps to determine the route of travel for the autonomous vehicle 1.
저장 장치(270)는 마그네틱 디스크 드라이브, 광학 디스크 드라이브, 플래쉬 메모리를 포함할 수 있다. 또는 저장 장치(270)는 휴대 가능한 USB 데이터 저장 장치가 될 수 있다. 저장 장치(270)는 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어를 저장할 수 있다. 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어는 휴대 가능한 저장 매체에 저장될 수 있다.The storage device 270 may include a magnetic disk drive, an optical disk drive, and a flash memory. Alternatively, the storage device 270 may be a portable USB data storage device. Storage device 270 may store system software for executing examples related to the present disclosure. System software for carrying out the examples relating to the present disclosure may be stored on a portable storage medium.
통신 장치(250)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신 장치(250)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 제어 장치(290)에 의해 제어되는 통신 장치(250)는 무선 신호를 송수신할 수 있다. 예를 들어, 제어 장치(290)는, 통신 장치(250)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 저장 장치(270)에 포함된 프로그램을 실행시킬 수 있다.The communication device 250 may include at least one antenna for wirelessly communicating with another device. For example, communication device 250 may be used to communicate with a cellular network or other wireless protocols and systems wirelessly via Wi-Fi or Bluetooth. The communication device 250 controlled by the control device 290 may transmit and receive a wireless signal. For example, the control device 290 may execute a program included in the storage device 270 in order for the communication device 250 to transmit and receive a wireless signal with the cellular network.
입력 장치(260)는 자율 주행 차량(1)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력 장치(260)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력 장치(260)는 마이크를 포함할 수 있는 바, 마이크는 자율 주행 차량(1)의 탑승자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.The input device 260 means a means for inputting data for controlling the autonomous vehicle 1. For example, the input device 260 may include a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto. In addition, the input device 260 may include a microphone, which may be configured to receive audio (eg, voice commands) from the occupant of the autonomous vehicle 1.
출력 장치(280)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력 장치(280)는 디스플레이부(281), 및 음향 출력부(282)를 포함할 수 있다.The output device 280 may output an audio signal or a video signal, and the output device 280 may include a display 281 and a sound output unit 282.
디스플레이부(281)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 출력 장치(280)의 구현 형태에 따라 출력 장치(280)는 디스플레이부(281)를 2개 이상 포함할 수도 있다.The display unit 281 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display. 3D display, an electrophoretic display. In addition, depending on the implementation form of the output device 280, the output device 280 may include two or more display units 281.
음향 출력부(282)는 통신 장치(250)로부터 수신되거나 저장 장치(270)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(282)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 282 outputs audio data received from the communication device 250 or stored in the storage device 270. In addition, the sound output unit 282 may include a speaker, a buzzer, and the like.
입력 장치(260) 및 출력 장치(280)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.The input device 260 and the output device 280 may include a network interface, and may be implemented as a touch screen.
제어 장치(290)는, 통상적으로 자율 주행 차량(1)의 전반적인 동작을 제어한다. 예를 들어, 제어 장치(290)는, 저장 장치(270)에 저장된 프로그램들을 실행함으로써, 추진 장치(210), 주행 장치(220), 센싱 장치(230), 주변 장치(240), 통신 장치(250), 입력 장치(260), 저장 장치(270), 출력 장치(280), 및 전원 공급 장치(299)를 전반적으로 제어할 수 있다. 또한, 제어 장치(290)는 자율 주행 차량(1)의 움직임을 제어할 수 있다.The control device 290 typically controls the overall operation of the autonomous vehicle 1. For example, the control device 290 executes the programs stored in the storage device 270, such that the propulsion device 210, the traveling device 220, the sensing device 230, the peripheral device 240, and the communication device ( 250, the input device 260, the storage device 270, the output device 280, and the power supply 299 may be controlled overall. In addition, the control device 290 may control the movement of the autonomous vehicle 1.
전원 공급 장치(299)는 자율 주행 차량(1)의 구성요소들 중 일부 또는 전부에 전력을 제공하도록 구성될 수 있다. 예를 들어, 전원 공급 장치(299)는 재충전가능 리튬 이온 또는 납산(lead-acid) 배터리를 포함할 수 있다.The power supply 299 may be configured to provide power to some or all of the components of the autonomous vehicle 1. For example, power supply 299 may comprise a rechargeable lithium ion or lead-acid battery.
도 3은 일 실시예에 따른 자율 주행 차량의 블록도이다.3 is a block diagram of an autonomous vehicle according to an embodiment.
자율 주행 차량(1)은 디스플레이 장치(110) 및 프로세서(processor)(120)를 포함할 수 있다. 도 3에 도시된 자율 주행 차량(1)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 3에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The autonomous vehicle 1 may include a display device 110 and a processor 120. In the autonomous vehicle 1 shown in FIG. 3, only components related to the present embodiment are shown. Therefore, it will be understood by those skilled in the art that other general purpose components other than the components shown in FIG. 3 may be further included.
디스플레이 장치(110)는 도 2의 디스플레이부(281)를 포함할 수 있고, 프로세서(120)는 도 2의 제어 장치(290)와 대응될 수 있다.The display device 110 may include the display 281 of FIG. 2, and the processor 120 may correspond to the control device 290 of FIG. 2.
디스플레이 장치(110)는 자율 주행 차량(1)의 차창의 영역에 형성될 수 있다.The display apparatus 110 may be formed in an area of a vehicle window of the autonomous vehicle 1.
도 4는 일 실시예에 따른 자율 주행 차량의 차창을 설명하기 위한 도면이다.4 is a diagram illustrating a windshield of an autonomous vehicle according to an exemplary embodiment.
자율 주행 차량(1)의 차창은, 자율 주행 차량(1)의 전면에 해당하는 차창(401), 자율 주행 차량(1)의 우측면에 해당하는 차창(402), 자율 주행 차량(1)의 좌측면에 해당하는 차창(403), 자율 주행 차량(1)의 후면에 해당하는 차창(404), 자율 주행 차량(1)의 천장에 해당하는 차창(405)이 될 수 있다. 따라서, 자율 주행 차량(1)은 차창들(401,402,403,404,405) 중 적어도 하나의 영역에 형성된 디스플레이 장치를 포함할 수 있다.The window of the autonomous vehicle 1 is a window 401 corresponding to the front surface of the autonomous vehicle 1, a car window 402 corresponding to the right side of the autonomous vehicle 1, and a left side of the autonomous vehicle 1. The window 403 corresponding to the surface, the window 404 corresponding to the rear of the autonomous vehicle 1, and the window 405 corresponding to the ceiling of the autonomous vehicle 1 may be used. Accordingly, the autonomous vehicle 1 may include a display device formed in at least one area of the vehicle windows 401, 402, 403, 404, 405.
도 4에서는 일 예에 따라, 자율 주행 차량(1)이 5가지 영역에 해당하는 차창들을 포함하는 것으로 도시되었지만, 이에 제한되지 않고 자율 주행 차량(1)에는 도 4와는 다른 위치, 다른 크기, 다른 형태 등으로 차창들이 구비될 수 있다.In FIG. 4, according to an example, the autonomous vehicle 1 includes windows corresponding to five regions, but the present invention is not limited thereto, and the autonomous vehicle 1 may have different positions, different sizes, and different positions from those of FIG. 4. The windows may be provided in a form or the like.
다시 도 3을 참조하면, 일 예에 따라, 디스플레이 장치(110)는 차창의 영역에 형성된 투명 디스플레이가 될 수 있다. 다른 예에 따라, 디스플레이 장치(110)는 차창을 대체하는 투명 디스플레이가 될 수 있다. 즉, 디스플레이 장치(110)는 디스플레이를 위한 기능 및 창(window)으로써의 기능을 동시에 갖는 투명 디스플레이가 될 수 있다. 예를 들어, 디스플레이 장치(110)는 투명 전극으로 구성될 수 있는 바, 디스플레이 장치(110)에 전압이 가해지는 경우, 디스플레이 장치(110)는 디스플레이를 위한 기능을 갖을 수 있고, 디스플레이 장치(110)에 전압이 가해지지 않는 경우, 차창으로써의 기능을 갖을 수 있다. 또 다른 예에 따라, 디스플레이 장치(110)는 차창의 영역의 크기를 갖고 차창의 표면에 형성될 수 있다. 또 다른 예에 따라, 디스플레이 장치(110)는 차창과 슬라이딩 가능하게 결합될 수 있다.Referring back to FIG. 3, according to an example, the display apparatus 110 may be a transparent display formed in an area of a vehicle window. According to another example, the display device 110 may be a transparent display to replace the windshield. That is, the display device 110 may be a transparent display having a function for a display and a function as a window. For example, the display device 110 may be configured as a transparent electrode. When a voltage is applied to the display device 110, the display device 110 may have a function for display, and the display device 110 may be used. If no voltage is applied), it may have a function as a windshield. According to another example, the display device 110 may have a size of an area of the window and may be formed on the surface of the window. According to another example, the display device 110 may be slidably coupled to the window.
도 5는 일 실시예에 따른 디스플레이 장치를 설명하기 위한 도면이다.5 is a diagram for describing a display apparatus, according to an exemplary embodiment.
디스플레이 장치(110)는 자율 주행 차량(1)의 차창(501)의 영역에 형성된 투명 디스플레이가 될 수 있다. 즉, 디스플레이 장치(110)는 차창(501)의 일측 표면에 밀착 접합된 투명 디스플레이(502)가 될 수 있다. 일 예에 따라, 디스플레이 장치(110)는 유연한(flexible) 박막형으로, 빛을 투과할 수도 있고, 고휘도의 영상을 출력할 수 있는 소자로 구성될 수 있다. 이러한 소자에는 LCD, LED 및 투명 유기 발광 다이오드(TOLED)(Transparent Organic Light Emission Diode) 중 어느 하나가 될 수 있다.The display apparatus 110 may be a transparent display formed in an area of the windshield 501 of the autonomous vehicle 1. That is, the display device 110 may be the transparent display 502 closely bonded to one surface of the window 501. According to an example, the display apparatus 110 may be a flexible thin film type and may be configured as an element that may transmit light and output an image of high brightness. Such a device may be any one of an LCD, an LED, and a transparent organic light emission diode (TOLED).
도 5에서는 일 예에 따라 자율 주행 차량(1)의 전면 차창을 도시하였지만, 투명 디스플레이로써의 디스플레이 장치(110)는 자율 주행 차량(1)의 다른 차창의 영역에도 형성될 수 있다.In FIG. 5, the front window of the autonomous vehicle 1 is illustrated according to an example. However, the display device 110 as a transparent display may be formed in an area of another vehicle window of the autonomous vehicle 1.
도 6는 다른 실시예에 따른 디스플레이 장치를 설명하기 위한 도면이다.6 is a diagram for describing a display apparatus, according to another exemplary embodiment.
디스플레이 장치(110)는 자율 주행 차량(1)의 차창(601)의 크기를 가질 수 있으며, 차창(601)과 슬라이딩 가능하게 결합될 수 있다. 즉, 디스플레이 장치(110)는 일방향으로 슬라이딩되어 차창(601)의 영역과 전부 겹쳐질 수 있으며, 타방향으로 슬라이딩되어 차창(601)의 영역과 겹치는 영역이 존재하지 않을 수 있다.The display apparatus 110 may have a size of the window 601 of the autonomous vehicle 1 and may be slidably coupled to the window 601. That is, the display device 110 may slide in one direction and overlap the area of the window 601 entirely, and may not exist in the other direction by sliding in the other direction and overlapping the area of the window 601.
도 6에서는 일 예에 따라 자율 주행 차량(1)의 전면 차창을 도시하였지만, 슬라이딩 가능한 디스플레이 장치(110)는 자율 주행 차량(1)의 다른 차창의 영역에도 형성될 수 있다.6 illustrates the front window of the autonomous vehicle 1 according to an example, the slidable display apparatus 110 may be formed in an area of another vehicle window of the autonomous vehicle 1.
다시 도 3을 참조하면, 프로세서(120)는 자율 주행 차량(1)의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 생성할 수 있다. 가상 주행 환경 영상은 자율 주행 차량(1)의 내부 시점(viewpoint)에서 차창의 영역을 향해 바라본 자율 주행 차량(1) 외부의 가상 주행 환경을 나타내는 영상을 의미한다. 다시 말해, 가상 주행 환경 영상은 자율 주행 차량(1)의 탑승자가 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경을 나타내는 영상을 의미한다. 가상 주행 환경은 실제 주행 환경이 일부 반영된 가상 현실 상의 주행 환경이 될 수 있다. 예를 들어, 실제 주행 환경은 비가 오는 도심 내 도로이지만, 가상 주행 환경은 햇빛이 쨍쨍한 도심 내 도로가 될 수 있다. 따라서, 가상 주행 환경 영상은, 탑승자가 차창의 영역을 향해 자율 주행 차량(1) 외부를 바라보았을 때, 탑승자가 실제 주행 환경으로 인식할 수 있는 가상 주행 환경을 나타낼 수 있다.Referring back to FIG. 3, the processor 120 may generate a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1. The virtual driving environment image refers to an image showing a virtual driving environment outside the autonomous vehicle 1 as viewed toward an area of a vehicle window from an internal viewpoint of the autonomous vehicle 1. In other words, the virtual driving environment image refers to an image representing the virtual driving environment outside the autonomous vehicle 1 that the occupant of the autonomous vehicle 1 may look toward the area of the vehicle window. The virtual driving environment may be a driving environment in virtual reality in which the actual driving environment is partially reflected. For example, a real driving environment may be a road in a rainy city, but a virtual driving environment may be a road in a city with bright sunlight. Therefore, the virtual driving environment image may represent a virtual driving environment that the occupant can recognize as the actual driving environment when the passenger looks out of the autonomous vehicle 1 toward the area of the vehicle window.
프로세서(120)는 자율 주행 차량(1) 주변의 실제 주행 환경에 대한 정보 및 가상 현실에 대한 정보에 기초하여, 가상 주행 환경 영상을 생성할 수 있다. 실제 주행 환경에 대한 정보는 자율 주행 차량(1)이 목적지까지 주행할 주행 경로에 대한 정보를 포함할 수 있고, 실제 주행 환경에 대한 영상을 포함할 수 있다. 또한, 프로세서(120)는 가상 현실에 대한 정보를 도 2의 저장 장치(270)로부터 획득하거나, 외부 네트워크로부터 가상 현실에 대한 정보를 획득할 수 있다. 또한, 가상 현실은 복수의 가상 현실들 중 탑승자의 선택에 의해 결정될 수 있다.The processor 120 may generate a virtual driving environment image based on the information about the actual driving environment and the information about the virtual reality around the autonomous driving vehicle 1. The information on the actual driving environment may include information on a driving route for the autonomous vehicle 1 to travel to a destination, and may include an image of the actual driving environment. In addition, the processor 120 may obtain information about the virtual reality from the storage device 270 of FIG. 2, or may obtain information about the virtual reality from an external network. In addition, the virtual reality may be determined by a passenger's selection of the plurality of virtual realitys.
프로세서(120)는 자율 주행 차량(1)의 현재 위치로부터 목적지까지의 주행 경로에 대한 정보에 기초하여, 가상 주행 환경 영상을 생성할 수 있다. 보다 구체적으로, 프로세서(120)는 자율 주행 차량(1)의 현재 위치로부터 목적지까지의 주행 경로에 대한 정보를 획득할 수 있고, 기 설정된 가상 현실에 획득된 주행 경로를 반영하여, 가상 주행 환경 영상을 생성할 수 있다. 예를 들어, 프로세서(120)는 해안 가를 나타내는 가상 현실에 주행 경로에 대응되는 도로의 모습을 반영하여, 가상 주행 환경 영상을 생성할 수 있다. 일 예에 따라, 프로세서(120)는 탑승자로부터 목적지에 대한 정보를 획득할 수 있고, 자율 주행 차량(1)의 현재 위치로부터 목적지까지의 주행 경로를 결정할 수 있다. 다른 예에 따라, 도 2의 네비게이션(241)은 자율 주행 차량(1)의 현재 위치로부터 목적지까지의 주행 경로를 결정할 수 있고, 프로세서(120)는 네비게이션(241)으로부터 주행 경로에 대한 정보를 획득할 수 있다.The processor 120 may generate a virtual driving environment image based on the information on the driving route from the current position of the autonomous vehicle 1 to the destination. More specifically, the processor 120 may acquire information about a driving route from the current position of the autonomous driving vehicle 1 to the destination, and reflect the driving route acquired in the preset virtual reality, and thus the virtual driving environment image. Can be generated. For example, the processor 120 may generate a virtual driving environment image by reflecting a state of a road corresponding to a driving route in a virtual reality representing a coast. According to an example, the processor 120 may obtain information about a destination from the occupant, and determine a driving route from the current position of the autonomous vehicle 1 to the destination. According to another example, the navigation 241 of FIG. 2 may determine the driving route from the current position of the autonomous vehicle 1 to the destination, and the processor 120 obtains information about the driving route from the navigation 241. can do.
프로세서(120)는 주행 경로 상의 지점에 대응되는 가상 주행 환경 영상을 생성할 수 있다. 다시 말해, 자율 주행 차량(1)이 위치할 수 있는 주행 경로 상의 지점을 기준으로, 프로세서(120)는 자율 주행 차량(1)의 탑승자가 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경을 나타내는 영상을 생성할 수 있다. 마찬가지로, 프로세서(120)는 자율 주행 차량(1)의 주행 경로 상의 지점들을 기준으로, 지점들 각각에 대응되는 가상 주행 환경 영상들을 생성할 수 있다.The processor 120 may generate a virtual driving environment image corresponding to a point on the driving route. In other words, based on the point on the travel path where the autonomous vehicle 1 may be located, the processor 120 may display the autonomous vehicle 1 that the occupant of the autonomous vehicle 1 may look toward the area of the vehicle window. An image representing an external virtual driving environment may be generated. Similarly, the processor 120 may generate virtual driving environment images corresponding to each of the points based on the points on the driving route of the autonomous vehicle 1.
도 7은 일 실시예에 따른 주행 경로를 결정하기 위한 UI를 나타내는 도면이다.7 is a diagram illustrating a UI for determining a driving route, according to an exemplary embodiment.
프로세서(120)는 주행 경로를 결정하기 위한 UI(710)를 탑승자에게 제공할 수 있다. 일 예에 따라, 프로세서(120)는 UI(710)를 디스플레이 장치(110)에 표시하거나, 별도의 디스플레이에 표시할 수 있다.The processor 120 may provide a passenger with a UI 710 for determining a driving route. According to an example, the processor 120 may display the UI 710 on the display device 110 or on a separate display.
탑승자는 UI(710) 내의 목적지 정보를 입력하는 영역(701)에 원하고자 하는 목적지에 대한 정보를 입력 장치(260)를 통해 입력할 수 있다. 따라서, 탑승자는 영역(701)에 목적지인 '1600 Pennsylvania Ave, D.C'를 입력할 수 있다. 이어서, 탑승자는 추가 설정 영역(702)을 통해 목적지까지의 주행 경로를 선택할 수 있다. 다시 말해, 도 7에 도시되어있듯이, 탑승자는 목적지까지의 여러 주행 경로들 중에 고속 도로를 경유하는 주행 경로를 선택할 수 있다. 따라서, 프로세서(120)는 탑승자에 의해 선택된 고속 도로를 경유하는 주행 경로를 자율 주행 차량(1)의 목적지까지의 주행 경로로 결정할 수 있다.The occupant may input information on a desired destination through the input device 260 in the area 701 for inputting destination information in the UI 710. Accordingly, the occupant may enter a destination '1600 Pennsylvania Ave, D.C' in the area 701. The occupant may then select a travel route to the destination via the additional setting area 702. In other words, as shown in FIG. 7, the occupant may select a driving route via the freeway among several driving routes to the destination. Therefore, the processor 120 may determine the driving route via the highway selected by the occupant as the driving route to the destination of the autonomous vehicle 1.
도 8은 일 실시예에 따른 가상 현실을 설정하기 위한 UI를 나타내는 도면이다.8 is a diagram illustrating a UI for setting a virtual reality, according to an exemplary embodiment.
프로세서(120)는 가상 현실을 설정하기 위한 UI(810)를 탑승자에게 제공할 수 있다. 탑승자는 UI(810)를 통해 복수의 가상 현실들 중 어느 하나를 선택할 수 있다. 다시 말해, 탑승자는 UI(810)를 통해, 록키 산맥(Rocky Mountains), 아마존 우림(Amazon Rainforest), 사하란 사파리(Saharan Safari), 그랜드 캐년(Grand Canyon), 하와이 화산(Hawaiian volcanoes), 빅서(Big Sur, California) 및 아일랜드 언덕(rolling irish hill) 중 어느 하나에 해당하는 가상 현실을 선택할 수 있다. 또한, 탑승자는 다운로드 메뉴(801)를 선택함으로써, 외부 네트워크로부터 다른 가상 현실을 다운로드 받을 수 있다.The processor 120 may provide a passenger with a UI 810 for setting up virtual reality. The occupant may select one of the plurality of virtual reality through the UI 810. In other words, the occupants can access the UI 810 via the Rocky Mountains, Amazon Rainforest, Saharan Safari, Grand Canyon, Hawaii Volcanoes, and Big Sur. Virtual reality corresponding to any one of Big Sur, California) and a rolling irish hill. In addition, the passenger may download another virtual reality from the external network by selecting the download menu 801.
일 예에 따라, 프로세서(120)는 먼저 도 7의 UI(710)를 탑승자에게 제공하여, 자율 주행 차량(1)의 목적지까지의 주행 경로를 결정할 수 있고, 이어서, 도 8의 UI(810)를 탑승자에게 제공하여, 가상 현실을 결정할 수 있다. 따라서, 프로세서(120)는 결정된 주행 경로 및 가상 현실을 이용하여, 가상 주행 환경 영상을 생성할 수 있다.According to one example, the processor 120 may first provide the occupant with the UI 710 of FIG. 7 to determine the driving route to the destination of the autonomous vehicle 1, and then the UI 810 of FIG. 8. May be provided to the occupant to determine the virtual reality. Therefore, the processor 120 may generate a virtual driving environment image by using the determined driving route and the virtual reality.
도 9는 가상 주행 환경 영상을 생성하는 것을 설명하기 위한 도면이다.9 is a diagram for describing generating a virtual driving environment image.
프로세서(120)는 자율 주행 차량(1)의 주행 경로의 일부 구간(910) 및 가상 현실의 일부 영역(920)에 기초하여, 일부 구간(910)에 대응되는 가상 주행 환경 영상(930)을 생성할 수 있다. 즉, 프로세서(120)는 자율 주행 차량(1)이 향후 주행할 지점(915)을 기준으로, 지점(915)에서 탑승자가 바라볼 수 있는 가상 주행 환경인 가상 주행 환경 영상(930)을 생성할 수 있다. 보다 구체적으로, 프로세서(120)는 지점(915)을 기준으로 일부 구간(910)의 도로 모습을 인식할 수 있고, 인식된 도로 모습을 가상 현실의 일부 영역(920)에 반영하여, 가상 주행 환경 영상(930)을 생성할 수 있다. 다시 말해, 일부 구간(910)의 도로 모습이 일정 거리 직진 후 좌회전하는 구간이므로, 프로세서(120)는 가상 현실의 일부 영역(920)에 일정 거리 직진 후 좌회전하는 도로 모습을 반영하여, 가상 주행 환경 영상(930)을 생성할 수 있다. 마찬가지로, 프로세서(120)는 자율 주행 차량(1)의 주행 경로의 나머지 구간 별로 도로 모습을 인식할 수 있고, 구간 별로 인식된 도로 모습을 가상 현실의 다른 영역들에 반영하여, 자율 주행 차량(1)의 전체 주행 경로에 대응되는 복수의 가상 주행 환경 영상들을 생성할 수 있다.The processor 120 generates a virtual driving environment image 930 corresponding to the partial section 910 based on the partial section 910 of the driving path of the autonomous vehicle 1 and the partial region 920 of the virtual reality. can do. That is, the processor 120 may generate a virtual driving environment image 930, which is a virtual driving environment that can be viewed by the occupant at the point 915 based on the point 915 where the autonomous vehicle 1 will travel in the future. Can be. More specifically, the processor 120 may recognize the road appearance of the section 910 based on the point 915, and reflect the recognized road appearance in the partial region 920 of the virtual reality, thereby providing a virtual driving environment. An image 930 may be generated. In other words, since the road shape of the section 910 is a section that turns left after going straight a certain distance, the processor 120 reflects the road form that turns left after going a certain distance in the partial region 920 of the virtual reality, the virtual driving environment An image 930 may be generated. Similarly, the processor 120 may recognize a road view for each of the remaining sections of the driving route of the autonomous vehicle 1, and reflect the road view recognized for each section to other regions of the virtual reality, thereby autonomously driving the vehicle 1. A plurality of virtual driving environment images corresponding to the entire driving route may be generated.
도 10은 자율 주행 차량이 직진으로 주행하는 지점들에 대응되는 가상 주행 환경 영상들을 생성하는 실시예를 나타내는 도면이다.FIG. 10 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels straight.
프로세서(120)는 주행 경로 상의 지점들(1010,1015)을 기준으로, 가상 주행 환경 영상들(1020,1030)을 생성할 수 있다. 자율 주행 차량(1)의 주행 경로가 지점(1010) 및 지점(1015)을 직진으로 통과하는 경우, 프로세서(120)는 자율 주행 차량(1)이 지점(1010)에 위치하는 것을 기준으로, 가상 주행 환경 영상(1020)을 생성할 수 있고, 이어서, 자율 주행 차량(1)이 지점(1015)에 위치하는 것을 기준으로, 가상 주행 환경 영상(1030)을 생성할 수 있다. The processor 120 may generate virtual driving environment images 1020 and 1030 based on the points 1010 and 1015 on the driving route. When the driving path of the autonomous vehicle 1 passes straight through the point 1010 and the point 1015, the processor 120 determines that the autonomous vehicle 1 is located at the point 1010 based on the fact that the autonomous vehicle 1 is located at the point 1010. The driving environment image 1020 may be generated, and then the virtual driving environment image 1030 may be generated based on the position of the autonomous vehicle 1 at the point 1015.
가상 주행 환경 영상(1020)은 자율 주행 차량(1)이 지점(1010)에 위치할 때, 탑승자가 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경을 나타낼 수 있고, 가상 주행 환경 영상(1030)은 자율 주행 차량(1)이 지점(1015)에 위치할 때, 탑승자가 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경을 나타낼 수 있다. 따라서, 가상 주행 환경 영상(1020)의 가상 주행 환경 중 일부 객체(1026)는 가상 주행 환경 영상(1030)에서는 사라질 수 있으며, 가상 주행 환경 영상(1020)의 가상 주행 환경 중 일부 객체들(1022,1024)의 크기 및 모양은 가상 주행 환경 영상(1030)에서는, 일부 객체들(1032,1034)과 같이, 가깝게 보이는 것으로 변화되어 표현될 수 있다. 따라서, 프로세서(120)는 가상 주행 환경 영상들(1020,1030)을 연속적으로 탑승자에게 제공함으로써, 탑승자에게 자율 주행 차량(1)이 주행 경로 상의 지점들(1010,1015)을 직진으로 주행한다는 경험을 제공할 수 있다. 또한, 실제 주행 환경은 도심 내 도로이지만, 가상 주행 환경 영상들(1020,1030)에 나타난 가상 주행 환경은 해안가 도로이므로, 프로세서(120)는 가상 주행 환경 영상들(1020,1030)을 연속적으로 탑승자에게 제공함으로써, 탑승자에게 자율 주행 차량(1)이 해안가 도로를 직진으로 주행한다는 경험을 제공할 수 있다.The virtual driving environment image 1020 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1010. The virtual driving environment image 1030 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1015. have. Accordingly, some objects 1026 of the virtual driving environment of the virtual driving environment image 1020 may disappear from the virtual driving environment image 1030, and some objects 1022, of the virtual driving environment of the virtual driving environment image 1020. The size and shape of the image 1024 may be expressed in a virtual driving environment image 1030 by being changed to look closer, such as some objects 1032 and 1034. Accordingly, the processor 120 continuously provides virtual passenger environment images 1020 and 1030 to the occupant so that the autonomous vehicle 1 travels to the occupant 1010 and 1015 in a straight line. Can be provided. In addition, the actual driving environment is a road in the city, but since the virtual driving environment shown in the virtual driving environment images 1020 and 1030 is a seaside road, the processor 120 continuously occupies the virtual driving environment images 1020 and 1030. By providing to the passenger, it is possible to provide the occupant the experience that the autonomous vehicle 1 travels straight along the waterfront road.
또한, 도 10에서는 프로세서(120)가 주행 경로 상의 지점(1010) 및 지점(1015)에 대응되는 가상 주행 환경 영상(1020) 및 가상 주행 환경 영상(1030)을 생성하는 예시가 도시되었지만, 탑승자에게 보다 실감나는 주행 경험을 제공하기 위해서, 프로세서(120)는 주행 경로 상의 많은 지점들에 대응되는 가상 주행 환경 영상들을 생성할 수 있다.10 illustrates an example in which the processor 120 generates a virtual driving environment image 1020 and a virtual driving environment image 1030 corresponding to a point 1010 and a point 1015 on a driving route, but to a passenger. In order to provide a more realistic driving experience, the processor 120 may generate virtual driving environment images corresponding to many points on the driving route.
도 11은 자율 주행 차량이 우회전으로 주행하는 지점들에 대응되는 가상 주행 환경 영상들을 생성하는 실시예를 나타내는 도면이다.FIG. 11 is a diagram illustrating an embodiment of generating virtual driving environment images corresponding to points at which an autonomous vehicle travels in a right turn.
프로세서(120)는 주행 경로 상의 지점들(1110,1115)을 기준으로, 가상 주행 환경 영상들(1120,1130)을 생성할 수 있다. 자율 주행 차량(1)의 주행 경로가 지점(1110) 및 지점(1115)을 우회전으로 통과하는 경우, 프로세서(120)는 자율 주행 차량(1)이 지점(1110)에 위치하는 것을 기준으로, 가상 주행 환경 영상(1120)을 생성할 수 있고, 이어서, 자율 주행 차량(1)이 지점(1115)에 위치하는 것을 기준으로, 가상 주행 환경 영상(1130)을 생성할 수 있다.The processor 120 may generate virtual driving environment images 1120 and 1130 based on the points 1110 and 1115 on the driving route. When the driving path of the autonomous vehicle 1 passes through the points 1110 and 1115 in a right turn, the processor 120 may determine that the autonomous vehicle 1 is located at the point 1110. The driving environment image 1120 may be generated, and then the virtual driving environment image 1130 may be generated based on the position of the autonomous vehicle 1 at the point 1115.
가상 주행 환경 영상(1120)은 자율 주행 차량(1)이 지점(1110)에 위치할 때, 탑승자가 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경을 나타낼 수 있고, 가상 주행 환경 영상(1130)은 자율 주행 차량(1)이 지점(1115)에 위치할 때, 탑승자가 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경을 나타낼 수 있다. 따라서, 프로세서(120)는 가상 주행 환경 영상들(1120,1130)을 연속적으로 탑승자에게 제공함으로써, 탑승자에게 자율 주행 차량(1)이 주행 경로 상의 지점들(1110,1115)을 우회전으로 주행한다는 경험을 제공할 수 있다. 또한, 실제 주행 환경은 도심 내 도로이지만, 가상 주행 환경 영상들(1020,1030)에 나타난 가상 주행 환경은 나무로 둘러싸인 도로이므로, 프로세서(120)는 가상 주행 환경 영상들(1120,1130)을 연속적으로 탑승자에게 제공함으로써, 탑승자에게 자율 주행 차량(1)이 나무로 둘러싸인 도로를 우회전으로 주행한다는 경험을 제공할 수 있다.The virtual driving environment image 1120 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1110. The virtual driving environment image 1130 may represent a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the vehicle window when the autonomous driving vehicle 1 is located at the point 1115. have. Accordingly, the processor 120 continuously provides the virtual driving environment images 1120 and 1130 to the occupant so that the autonomous vehicle 1 travels to the occupant 1110 and 1115 on the driving route to the right. Can be provided. In addition, although the actual driving environment is a road in the city, the virtual driving environment shown in the virtual driving environment images 1020 and 1030 is a road surrounded by trees, so that the processor 120 continuously processes the virtual driving environment images 1120 and 1130. By providing it to the occupant, it is possible to provide the occupant the experience that the autonomous vehicle 1 travels on the road surrounded by trees to the right.
도 12 및 13은 주행 경로 상의 지점에 대응되는 복수의 가상 주행 환경 영상들을 생성하는 실시예를 나타내는 도면이다.12 and 13 illustrate an embodiment of generating a plurality of virtual driving environment images corresponding to a point on a driving route.
먼저 도 12를 살펴보면, 프로세서(120)는 주행 경로 상의 지점(1205)에 대응되는 복수의 가상 주행 환경 영상들(1210,1220,1230)을 생성할 수 있다. 보다 구체적으로, 프로세서(120)는 자율 주행 차량(1)이 지점(1205)에 위치할 때, 탑승자가 전면 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경인 가상 주행 환경 영상(1210)을 생성할 수 있고, 탑승자가 좌측면 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경인 가상 주행 환경 영상(1220)을 생성할 수 있고, 탑승자가 우측면 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경인 가상 주행 환경 영상(1230)을 생성할 수 있다. 따라서, 전면 차창의 영역, 좌측면 차창의 영역, 및 우측면 차창의 영역에 형성된 디스플레이 장치(110)에서 복수의 가상 주행 환경 영상들(1210,1220,1230)을 동시에 표시되는 경우, 탑승자는 보다 실감나게 가상 주행 환경을 경험할 수 있다. First, referring to FIG. 12, the processor 120 may generate a plurality of virtual driving environment images 1210, 1220, and 1230 corresponding to a point 1205 on a driving route. More specifically, the processor 120 is a virtual driving environment outside the autonomous vehicle 1 that the occupant can look toward the area of the front windshield when the autonomous vehicle 1 is located at the point 1205. A driving environment image 1210 may be generated, and a virtual driving environment image 1220 may be generated, which is a virtual driving environment outside the autonomous vehicle 1 which the occupant may look toward the area of the left side window pane. A virtual driving environment image 1230, which is a virtual driving environment outside the autonomous vehicle 1, which the occupant can look toward the area of the right side vehicle window, may be generated. Therefore, when the plurality of virtual driving environment images 1210, 1220, 1230 are simultaneously displayed on the display device 110 formed in the area of the front window, the area of the left side window, and the area of the right side window, the passenger feels more. You can experience a virtual driving environment.
이어서, 도 13을 살펴보면, 프로세서(120)는 주행 경로 상의 지점(1305)에 대응되는 복수의 가상 주행 환경 영상들(1310,1320,1330)을 생성할 수 있다. 보다 구체적으로, 프로세서(120)는 자율 주행 차량(1)이 지점(1305)에 위치할 때, 탑승자가 전면 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경인 가상 주행 환경 영상(1310)을 생성할 수 있고, 탑승자가 좌측면 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경인 가상 주행 환경 영상(1320)을 생성할 수 있고, 탑승자가 우측면 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1) 외부의 가상 주행 환경인 가상 주행 환경 영상(1330)을 생성할 수 있다.Subsequently, referring to FIG. 13, the processor 120 may generate a plurality of virtual driving environment images 1310, 1320, and 1330 corresponding to the point 1305 on the driving route. More specifically, the processor 120 is a virtual driving environment outside the autonomous vehicle 1 that the occupant can view toward the area of the front window when the autonomous vehicle 1 is located at the point 1305. The driving environment image 1310 may be generated, and a virtual driving environment image 1320 may be generated, which is a virtual driving environment outside the autonomous driving vehicle 1 that the occupant may look toward the area of the left side window pane. A virtual driving environment image 1330, which is a virtual driving environment outside the autonomous vehicle 1, which the occupant may look toward the area of the right side vehicle window, may be generated.
따라서, 전면 차창의 영역, 좌측면 차창의 영역, 및 우측면 차창의 영역에 형성된 디스플레이 장치(110)에서, 지점(1205)에 대응되는 복수의 가상 주행 환경 영상들(1210,1220,1230), 및 지점(1205)에 대응되는 복수의 가상 주행 환경 영상들(1310,1320,1330)이 연속적으로 표시됨으로써, 탑승자는 보다 실감나게 자율 주행 차량(1)이 주행 경로 상의 지점들(1205,1305)을 직진으로 주행한다는 경험을 할 수 있다. 또한, 실제 주행 환경은 비가 내리는 도로이지만, 복수의 가상 주행 환경 영상들(1210,1220,1230,1310,1320,1330)에 나타난 가상 주행 환경은 햇빛이 드는 도로이므로, 프로세서(120)는 복수의 가상 주행 환경 영상들(1210,1220,1230), 및 지점(1205)에 대응되는 복수의 가상 주행 환경 영상들(1310,1320,1330)을 연속적으로 탑승자에게 제공함으로써, 탑승자에게 자율 주행 차량(1)이 햇빛이 드는 도로를 직진으로 주행한다는 경험을 제공할 수 있다.Accordingly, in the display apparatus 110 formed in the area of the front window, the area of the left side window, and the area of the right side window, a plurality of virtual driving environment images 1210, 1220, 1230 corresponding to the point 1205, and As the plurality of virtual driving environment images 1310, 1320, and 1330 corresponding to the point 1205 are continuously displayed, the occupant may realize the autonomous vehicle 1 as a result of the points 1205 and 1305 on the driving route. You can experience driving straight ahead. In addition, although the actual driving environment is a rainy road, the virtual driving environment shown in the plurality of virtual driving environment images 1210, 1220, 1230, 1310, 1320, and 1330 is a road with sunlight, and thus, the processor 120 includes a plurality of roads. By providing the passenger with the virtual driving environment images 1210, 1220, 1230, and the plurality of virtual driving environment images 1310, 1320, 1330 corresponding to the point 1205, the autonomous driving vehicle 1 is provided to the passenger. ) Can provide the experience of driving straight on a sunny road.
또한, 도 12 및 13에서는 전면 차창, 좌측면 차창, 및 우측면 차창을 예시로 설명되었지만, 프로세서(120)는 탑승자가 자율 주행 차량(1) 내의 다른 차창을 통해 바라볼 수 있는 외부 가상 주행 환경을 나타내는 가상 주행 환경 영상을 생성할 수 있다.12 and 13 illustrate the front windshield, the left windshield and the right windshield as an example, the processor 120 may provide an external virtual driving environment that the occupant can see through other windows within the autonomous vehicle 1. A virtual driving environment image may be generated.
다시 도 3을 참조하면, 프로세서(120)는 자율 주행 차량(1)의 실제 주행 환경에 대한 영상에 기초하여, 가상 주행 환경 영상을 생성할 수 있다. 보다 구체적으로, 프로세서(120)는 실제 주행 환경에 대한 영상에서 나타나는 객체의 모습이 반영된 가상 주행 환경 영상을 생성할 수 있다. 예를 들어, 프로세서(120)는 실제 주행 환경에 대한 영상에서 나타난 도로의 모습이 반영된 가상 주행 환경 영상을 생성할 수 있다. 또한, 프로세서(120)는 실제 주행 환경에 대한 영상에 포함된 객체의 이동 궤적 또는 변화율이 반영된 가상 주행 환경 영상을 생성할 수 있다. 예를 들어, 프로세서(120)는 실제 주행 환경에 대한 영상에서 나타나는 차량의 이동 궤적 및 속도를 반영하는 가상 주행 환경 영상을 생성할 수 있다.Referring back to FIG. 3, the processor 120 may generate a virtual driving environment image based on an image of the actual driving environment of the autonomous vehicle 1. More specifically, the processor 120 may generate a virtual driving environment image reflecting the appearance of an object appearing in the image of the actual driving environment. For example, the processor 120 may generate a virtual driving environment image reflecting the appearance of the road shown in the image of the actual driving environment. In addition, the processor 120 may generate a virtual driving environment image in which the movement trajectory or the change rate of the object included in the image of the actual driving environment is reflected. For example, the processor 120 may generate a virtual driving environment image that reflects the movement trajectory and the speed of the vehicle that appear in the image of the actual driving environment.
일 예에 따라, 도 2의 이미지 센서(228)는 자율 주행 차량(1)의 실제 주행 환경에 대한 영상을 촬영할 수 있고, 프로세서(120)는 이미지 센서(228)에 의해 촬영한 실제 주행 환경에 대한 영상에 기초하여, 가상 주행 환경 영상을 생성할 수 있다. 다른 예에 따라, 프로세서(120)는 자율 주행 차량(1)의 실제 주행 환경에 대한 영상을 외부 네트워크로부터 획득할 수 있다.According to an example, the image sensor 228 of FIG. 2 may capture an image of the actual driving environment of the autonomous vehicle 1, and the processor 120 may capture an image of the actual driving environment captured by the image sensor 228. Based on the image, the virtual driving environment image may be generated. According to another example, the processor 120 may obtain an image of the actual driving environment of the autonomous vehicle 1 from an external network.
도 14은 자율 주행 차량의 카메라의 일 실시예를 나타내는 도면이다.14 is a diagram illustrating an embodiment of a camera of an autonomous vehicle.
도 14를 참고하면, 이미지 센서(228)의 일 예로써 카메라(1410,1420,1430,1440)는 자율 주행 차량(1)의 차창(401,402,403,404) 외면에 설치될 수 있다. 즉, 카메라(1410,1420,1430,1440)는 자율 주행 차량(1)의 전면에 해당하는 차창(401), 좌측면에 해당하는 차창(403), 우측면에 해당하는 차창(402), 후면에 해당하는 차창(404) 각각의 외면에 설치될 수 있다.Referring to FIG. 14, as an example of the image sensor 228, the cameras 1410, 1420, 1430, and 1440 may be installed on the outer surfaces of the window windows 401, 402, 403, 404 of the autonomous vehicle 1. That is, the cameras 1410, 1420, 1430, and 1440 may include a car window 401 corresponding to the front side of the autonomous vehicle 1, a car window 403 corresponding to the left side, a car window 402 corresponding to the right side, and a rear side. It may be installed on the outer surface of each of the corresponding window 404.
따라서, 카메라(1410,1420,1430,1440)는 탑승자가 차창의 영역을 향해 바라볼 수 있는 자율 주행 차량(1)의 실제 주행 환경을 촬영할 수 있고, 실제 주행 환경에 대한 영상을 획득할 수 있다.Accordingly, the cameras 1410, 1420, 1430, and 1440 may photograph an actual driving environment of the autonomous vehicle 1, which the occupant can look toward the area of the vehicle window, and acquire an image of the actual driving environment. .
도 15는 프로세서가 실제 주행 환경에 대한 영상에 기초하여, 가상 주행 환경 영상을 생성하는 실시예를 나타내는 도면이다.15 is a diagram illustrating an embodiment in which a processor generates a virtual driving environment image based on an image of an actual driving environment.
이미지 센서(228)는 자율 주행 차량(1)의 전면 차창에 설치될 수 있고, 이미지 센서(228)는 탑승자가 자율 주행 차량(1)의 전면 차창을 통해 볼 수 있는 실제 주행 환경을 촬영할 수 있다. 프로세서(120)는 이미지 센서(228)에 의해 촬영된 실제 주행 환경 영상(1510)을 획득할 수 있다. 또한, 프로세서(120)는 탑승자에 의해 선택된 가상 현실(1520)을 획득할 수 있다. 따라서, 프로세서(120)는 실제 주행 환경 영상(1510) 및 가상 현실(1520)에 기초하여, 가상 주행 환경 영상(1530)을 생성할 수 있다.The image sensor 228 may be installed in the front windshield of the autonomous vehicle 1, and the image sensor 228 may photograph an actual driving environment that a passenger can see through the front windshield of the autonomous vehicle 1. . The processor 120 may acquire an actual driving environment image 1510 captured by the image sensor 228. In addition, the processor 120 may acquire the virtual reality 1520 selected by the occupant. Therefore, the processor 120 may generate the virtual driving environment image 1530 based on the actual driving environment image 1510 and the virtual reality 1520.
일 예에 따라, 프로세서(120)는 실제 주행 환경 영상(1510)을 통해 도로 모습을 인식할 수 있고, 인식된 도로 모습을 가상 현실(1520)에 반영하여, 가상 주행 환경 영상(1530)을 생성할 수 있다. 다시 말해, 실제 주행 환경 영상(1510)의 도로 모습이 일정 거리 직진 후 좌회전하는 구간이므로, 프로세서(120)는 가상 현실(1520)에 일정 거리 직진 후 좌회전하는 도로 모습을 반영하여, 가상 주행 환경 영상(1530)을 생성할 수 있다. 따라서, 가상 주행 환경 영상(1530)이 자율 주행 차량(1)의 전면 차창의 영역에 형성된 디스플레이 장치(110)에서 표시되는 경우, 탑승자는 가상 주행 환경 영상(1530)을 실제 주행 환경으로 인식할 수 있다. 또한, 프로세서(120)는 실제 주행 환경 영상(1510)에서 나타나는 객체를 인식할 수 있고, 인식된 객체를 가상 주행 환경 영상(1530)에 반영할 지 여부를 결정할 수 있다. 예를 들어, 프로세서(120)는 실제 주행 환경 영상(1510)에서 나타나는 신호등, 횡단보도 같은 객체를 가상 주행 환경 영상(1530)에 반영하도록 결정할 수 있다. 또한, 도 15에 도시되어 있듯이, 프로세서(120)는 실제 주행 환경 영상(1510)의 도로 내의 차량들(1511,1512,1513)을 인식할 수 있고, 인식된 차량들(1511,1512,1513)이 가상 주행 환경 영상(1530)에 표시되지 않도록 결정할 수 있다.According to an example, the processor 120 may recognize the road image through the actual driving environment image 1510, and generate the virtual driving environment image 1530 by reflecting the recognized road image in the virtual reality 1520. can do. In other words, since the road shape of the actual driving environment image 1510 is a section in which the user turns left after going straight for a predetermined distance, the processor 120 reflects the road shape in which the user turns left after going straight in the virtual reality 1520, the virtual driving environment image. 1530 may be generated. Therefore, when the virtual driving environment image 1530 is displayed on the display device 110 formed in the area of the front window of the autonomous vehicle 1, the occupant may recognize the virtual driving environment image 1530 as the actual driving environment. have. In addition, the processor 120 may recognize an object appearing in the actual driving environment image 1510 and determine whether to reflect the recognized object in the virtual driving environment image 1530. For example, the processor 120 may determine to reflect an object such as a traffic light and a crosswalk that appear in the actual driving environment image 1510 in the virtual driving environment image 1530. In addition, as shown in FIG. 15, the processor 120 may recognize the vehicles 1511, 1512, and 1513 on the road of the actual driving environment image 1510, and recognize the vehicles 1511, 1512, and 1513. It may be determined that the virtual driving environment image 1530 is not displayed.
다른 예에 따라, 프로세서(120)는 실제 주행 환경 영상(1510)을 통해 도로 영역을 인식할 수 있고, 실제 주행 환경 영상(1510) 내에서 도로 영역 이외의 영역을 가상 현실(1520)로 대체할 수 있다. 즉, 실제 주행 환경 영상(1510)은 건물들로 둘러싸인 도로 영역이고, 가상 현실(1520)은 나무가 많은 숲 속인 경우, 프로세서(120)는 실제 주행 환경 영상(1510) 내의 건물들에 해당하는 영역을 숲 속 영역으로 대체하여, 가상 주행 환경 영상(1530)을 생성할 수 있다.According to another example, the processor 120 may recognize the road area through the actual driving environment image 1510, and replace the area other than the road area with the virtual reality 1520 within the actual driving environment image 1510. Can be. That is, when the actual driving environment image 1510 is a road area surrounded by buildings, and the virtual reality 1520 is in a forest with trees, the processor 120 is an area corresponding to the buildings in the actual driving environment image 1510. By replacing with a forest area, a virtual driving environment image 1530 can be generated.
또 다른 예에 따라, 프로세서(120)는 실제 주행 환경 영상(1510)에 나타난 도로 영역을 통해 자율 주행 차량(1)의 주행 경로를 인식할 수 있고, 가상 주행 환경 영상(1530)뿐만 아니라 주행 경로 상의 지점들 각각에 대응되는 다른 가상 주행 환경 영상들을 생성할 수 있다.According to another example, the processor 120 may recognize the driving route of the autonomous vehicle 1 through the road area shown in the actual driving environment image 1510, and not only the virtual driving environment image 1530 but also the driving route. Other virtual driving environment images corresponding to each of the points on the image may be generated.
도 15에서는 자율 주행 차량(1)의 전면 차창에 설치된 카메라에 기초하여, 가상 주행 환경 영상(1530)을 생성하는 예를 들었지만, 마찬가지로 프로세서(120)는 자율 주행 차량(1)의 다른 차창에 설치된 카메라에 기초하여, 다른 가상 주행 환경 영상을 생성할 수 있다. 즉, 프로세서(120)는, 자율 주행 차량(1)의 다른 차창에 설치된 카메라를 통해 획득된 실제 주행 환경 영상을 이용하여, 다른 차창의 영역에 형성된 디스플레이 장치(110)에서 표시할 다른 가상 주행 환경 영상을 생성할 수 있다.In FIG. 15, an example of generating a virtual driving environment image 1530 is generated based on a camera installed in a front window of the autonomous vehicle 1, but the processor 120 is similarly installed in another window of the autonomous vehicle 1. Based on the camera, another virtual driving environment image may be generated. That is, the processor 120 may use the actual driving environment image acquired through the camera installed in the other vehicle window of the autonomous vehicle 1 to display another virtual driving environment to be displayed on the display device 110 formed in the area of the other vehicle window. An image can be generated.
다시 도 3을 참조하면, 프로세서(120)는, 자율 주행 차량(1)의 차창의 영역에 형성된 디스플레이 장치(110)가 가상 주행 환경 영상을 표시하도록 제어할 수 있다. 따라서, 탑승자는 자율 주행 차량(1) 내부에서 차창의 영역을 바라볼 때, 마치 실제 주행 환경을 경험하는 것과 같이, 가상 주행 환경을 경험할 수 있다. 즉, 프로세서(120)는 가상 주행 환경 영상에 나타난 가상 주행 환경을 통해 탑승자가 실제 주행 환경으로 착각하도록 의도할 수 있다.Referring to FIG. 3 again, the processor 120 may control the display apparatus 110 formed in the area of the vehicle window of the autonomous vehicle 1 to display a virtual driving environment image. Therefore, the occupant can experience the virtual driving environment as if he / she looks at the area of the car window inside the autonomous vehicle 1, as if experiencing the actual driving environment. That is, the processor 120 may intend the occupant to mistake the actual driving environment through the virtual driving environment shown in the virtual driving environment image.
프로세서(120)는 디스플레이 장치(110)가 자율 주행 차량(1)의 주행 경로 상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 연속적으로 표시하도록 제어할 수 있다. 즉, 프로세서(120)는 주행 경로 상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 생성할 수 있고, 디스플레이 장치(110)가 생성된 가상 주행 환경 영상들을 연속적으로 표시하도록 제어할 수 있다.The processor 120 may control the display apparatus 110 to continuously display virtual driving environment images corresponding to each of the points on the driving route of the autonomous driving vehicle 1. That is, the processor 120 may generate virtual driving environment images corresponding to each of the points on the driving route, and control the display apparatus 110 to continuously display the generated virtual driving environment images.
예를 들어, 도 10을 참조하면, 프로세서(120)는 차창의 영역에 형성된 디스플레이 장치(110)가 가상 주행 환경 영상들(1020,1030)을 연속적으로 표시하도록 제어할 수 있다. 따라서, 탑승자는 연속적으로 표시되는 가상 주행 환경 영상들(1020,1030)을 차창의 영역을 통해 바라볼 수 있으므로, 탑승자는 가상 주행 환경 영상들(1020,1030)에 나타난 가상 주행 환경을 경험할 수 있고, 탑승자는 자율 주행 차량(1)이 가상 주행 환경 내에서 직진한다고 인식할 수 있다.For example, referring to FIG. 10, the processor 120 may control the display apparatus 110 formed in the area of the vehicle window to continuously display the virtual driving environment images 1020 and 1030. Accordingly, the occupant may view the virtual driving environment images 1020 and 1030 continuously displayed through the area of the car window, and thus the occupant may experience the virtual driving environment shown in the virtual driving environment images 1020 and 1030. The occupant may recognize that the autonomous vehicle 1 is going straight in the virtual driving environment.
마찬가지로, 도 11을 참조하면, 프로세서(120)는 차창의 영역에 형성된 디스플레이 장치(110)가 가상 주행 환경 영상들(1120,1130)을 연속적으로 표시하도록 제어할 수 있다. 따라서, 탑승자는 연속적으로 표시되는 가상 주행 환경 영상들(1120,1130)을 차창의 영역을 통해 바라볼 수 있으므로, 탑승자는 가상 주행 환경 영상들(1120,1130)에 나타난 가상 주행 환경을 경험할 수 있고, 탑승자는 자율 주행 차량(1)이 가상 주행 환경 내에서 우회전한다고 인식할 수 있다.Similarly, referring to FIG. 11, the processor 120 may control the display apparatus 110 formed in the area of the vehicle window to continuously display the virtual driving environment images 1120 and 1130. Accordingly, the occupant may view the virtual driving environment images 1120 and 1130 continuously displayed through the area of the vehicle window, so that the occupant may experience the virtual driving environment shown in the virtual driving environment images 1120 and 1130. The occupant may recognize that the autonomous vehicle 1 turns right in the virtual driving environment.
프로세서(120)는 자율 주행 차량(1)의 움직임과 연동하여, 디스플레이 장치(110)가 가상 주행 환경 영상을 표시하도록 제어할 수 있다. 프로세서(120)는 자율 주행 차량(1)이 직진 주행하는 동작에 대응되는 가상 주행 환경 영상, 및 자율 주행 차량(1)이 좌회전 또는 우회전 주행하는 동작에 대응되는 가상 주행 환경 영상을 각각 동영상으로써 획득할 수 있다. 일 예에 따라, 프로세서(120)는 자율 주행 차량(1)의 주행 동작에 대응되는 가상 주행 환경 영상을 외부 네트워크로부터 획득할 수 있고, 다른 예에 따라, 프로세서(120)는 자율 주행 차량(1)의 주행 동작에 대응되는 가상 주행 환경 영상을 생성할 수 있다. 따라서, 프로세서(120)는, 자율 주행 차량(1)이 직진 주행하는 경우, 디스플레이 장치(110)가 직진 주행에 대응되는 가상 주행 환경 영상을 동영상으로 재생하도록 제어할 수 있다. 또한, 프로세서(120)는 자율 주행 차량(1)이 좌회전 또는 우회전 주행하는 경우, 디스플레이 장치(110)가 좌회전 주행 또는 우회전 주행에 대응되는 가상 주행 환경 영상을 동영상으로 재생하도록 제어할 수 있다. 따라서, 프로세서(120)는, 자율 주행 차량(1)의 움직임과 연동하여, 가상 주행 환경 영상을 디스플레이 장치(110)를 통해 표시할 수 있는 바, 탑승자는 보다 실감나게 자율 주행 차량(1)이 가상 주행 환경을 주행하고 있다는 경험을 할 수 있다.The processor 120 may control the display apparatus 110 to display a virtual driving environment image in association with the movement of the autonomous vehicle 1. The processor 120 acquires a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 travels straight, and a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 rotates left or right, respectively, as a video. can do. According to an example, the processor 120 may obtain a virtual driving environment image corresponding to the driving operation of the autonomous vehicle 1 from an external network. According to another example, the processor 120 may determine the autonomous vehicle 1. The virtual driving environment image corresponding to the driving operation may be generated. Therefore, when the autonomous vehicle 1 travels straight, the processor 120 may control the display apparatus 110 to reproduce the virtual driving environment image corresponding to the straight driving as a moving image. In addition, when the autonomous vehicle 1 travels left or right, the processor 120 may control the display apparatus 110 to reproduce a virtual driving environment image corresponding to the left turn driving or the right turn driving as a moving image. Therefore, the processor 120 may display the virtual driving environment image through the display apparatus 110 in association with the movement of the autonomous vehicle 1, and thus the passenger may realize the autonomous vehicle 1 more realistically. You can experience that you are driving in a virtual driving environment.
도 2의 움직임 센싱 장치(238)는 자율 주행 차량(1)의 움직임을 센싱할 수 있고, 프로세서(120)는 움직임 센싱 장치(238)에 의해 센싱된 자율 주행 차량(1)의 움직임에 기초하여, 디스플레이 장치(110)가 가상 주행 환경 영상을 표시하도록 제어할 수 있다. 자율 주행 차량(1)의 움직임은 자율 주행 차량의 속도, 가속도, 감속도, 롤(roll), 피치(pitch), 요(yaw) 및 이들의 변화량 중 적어도 하나를 포함할 수 있고, 움직임 센싱 장치(238)는 자율 주행 차량(1)의 가속도, 감속도, 롤(roll), 피치(pitch), 요(yaw) 및 이들의 변화량 중 적어도 하나를 센싱할 수 있다. 또한, 움직임 센싱 장치(238)는 자율 주행 차량(1)의 주행 속도, 위치 변화 및 방향 변화를 센싱할 수 있다. 또한, 움직임 센싱 장치(238)는 자율 주행 차량(1)의 주행 중 상태 또는 정지 상태를 센싱할 수 있다.The motion sensing device 238 of FIG. 2 may sense the motion of the autonomous vehicle 1, and the processor 120 may be based on the motion of the autonomous vehicle 1 sensed by the motion sensing device 238. The display apparatus 110 may control to display a virtual driving environment image. The movement of the autonomous vehicle 1 may include at least one of speed, acceleration, deceleration, roll, pitch, yaw, and a change amount thereof, of the autonomous vehicle, and the movement sensing device. 238 may sense at least one of an acceleration, a deceleration, a roll, a pitch, a yaw, and a change amount thereof of the autonomous vehicle 1. In addition, the motion sensing device 238 may sense a traveling speed, a position change, and a direction change of the autonomous vehicle 1. In addition, the motion sensing device 238 may sense a driving state or a stopped state of the autonomous vehicle 1.
또한, 자율 주행 차량(1)의 차창은 제어 장치(290)에 의한 자율 주행 차량(1)의 움직임 제어에 대응되도록 가상 주행 환경을 디스플레이할 수 있다. 다시 말해, 제어 장치(290)는 자율 주행 차량(1)의 움직임을 제어할 수 있고, 자율 주행 차량(1)의 차창은 자율 주행 차량의 움직임에 대응되게 가상 주행 환경을 나타내는 영상을 디스플레이할 수 있다.In addition, the windshield of the autonomous vehicle 1 may display a virtual driving environment so as to correspond to the movement control of the autonomous vehicle 1 by the control device 290. In other words, the controller 290 may control the movement of the autonomous vehicle 1, and the windshield of the autonomous vehicle 1 may display an image representing the virtual driving environment corresponding to the movement of the autonomous vehicle. have.
또한, 자율 주행 차량(1)은 재생 장치를 더 포함할 수 있는 바, 재생 장치는 제어 장치(290)에 의한 자율 주행 차량(1)의 움직임 제어에 따라 가상 주행 환경을 재생할 수 있고, 자율 주행 차량(1)의 차창은 재생 장치의 재생 결과를 디스플레이할 수 있다. 다시 말해, 제어 장치(290)는 자율 주행 차량(1)의 움직임을 제어할 수 있고, 재생 장치는 자율 주행 차량의 움직임에 대응되게 가상 주행 환경을 나타내는 영상을 재생할 수 있고, 차창은 재생되는 영상을 디스플레이할 수 있다. 일 예에 따라, 가상 주행 환경은 3D 그래픽 데이터일 수 있고, 재생 장치는 GPU(Graphics Processing Unit)가 될 수 있다.In addition, the autonomous vehicle 1 may further include a reproducing apparatus, and the reproducing apparatus may reproduce the virtual driving environment according to the movement control of the autonomous vehicle 1 by the controller 290, and may drive the autonomous driving. The windshield of the vehicle 1 can display the playback result of the playback device. In other words, the controller 290 may control the movement of the autonomous vehicle 1, the reproduction apparatus may reproduce an image representing the virtual driving environment corresponding to the movement of the autonomous vehicle, and the vehicle window may reproduce the image. Can be displayed. According to an example, the virtual driving environment may be 3D graphic data, and the playback device may be a graphics processing unit (GPU).
프로세서(120)는 자율 주행 차량(1)의 움직임에 기초하여, 디스플레이 장치(110)가 자율 주행 차량(1)의 주행 경로상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 표시하도록 제어할 수 있다. 디스플레이 장치(110)가 가상 주행 환경 영상들을 연속적으로 표시하는 도중에, 움직임 센싱 장치(238)가 자율 주행 차량(1)의 정지 상태를 센싱하는 경우, 프로세서(120)는 가상 주행 환경 영상들의 연속적 표시를 일시 중지시킬 수 있다. The processor 120 may control the display apparatus 110 to display virtual driving environment images corresponding to each of the points on the driving route of the autonomous vehicle 1 based on the movement of the autonomous vehicle 1. . While the display device 110 continuously displays the virtual driving environment images, when the motion sensing device 238 senses the stationary state of the autonomous vehicle 1, the processor 120 continuously displays the virtual driving environment images. Can be paused.
프로세서(120)는 자율 주행 차량(1)의 움직임에 기초하여, 디스플레이 장치(110)에서 표시되는 가상 주행 환경 영상들의 영상 변화율을 제어할 수 있다. 영상 변화율은 디스플레이 장치(100)에서 표시되는 가상 주행 환경 영상들의 시간적 변화율을 의미할 수 있다. 즉, 영상 변화율은 가상 주행 환경 영상들이 디스플레이 장치(110)에서 전개되는 속도가 될 수 있다. 일 예에 따라, 움직임 센싱 장치(238)가 자율 주행 차량(1)의 주행 속도를 센싱하는 경우, 프로세서(120)는 센싱된 속도에 기초하여, 디스플레이 장치(110)에서 표시되는 가상 주행 환경 영상들 간의 영상 변화율을 제어할 수 있다. 예를 들어, 자율 주행 차량(1)의 속도가 이전보다 빨라지는 경우, 프로세서(120)는 디스플레이 장치(110)에서 표시되는 가상 주행 영상들의 전개 속도를 이전보다 빠르게 제어할 수 있고, 자율 주행 차량(1)의 속도가 이전보다 느려지는 경우, 프로세서(120)는 디스플레이 장치(110)에서 표시되는 가상 주행 환경 영상들의 전개 속도를 이전보다 느리게 제어할 수 있다. 도 10을 예로 들면, 자율 주행 차량(1)의 주행 속도가 빨라지는 경우, 프로세서(120)는 디스플레이 장치(110)에서 표시될 가상 주행 환경 영상들(1020,1030)의 전개 속도를 보다 빠르게 제어할 수 있고, 탑승자는 빠르게 전개되는 가상 주행 환경 영상들(1020,1030)을 통해 보다 현실감 있는 주행 경험을 제공받을 수 있다.The processor 120 may control an image change rate of the virtual driving environment images displayed on the display apparatus 110 based on the movement of the autonomous vehicle 1. The image change rate may refer to a temporal change rate of the virtual driving environment images displayed on the display apparatus 100. That is, the image change rate may be a speed at which the virtual driving environment images are developed in the display apparatus 110. According to an example, when the motion sensing device 238 senses the driving speed of the autonomous vehicle 1, the processor 120 may display an image of the virtual driving environment displayed on the display device 110 based on the sensed speed. It is possible to control the rate of image change between them. For example, when the speed of the autonomous vehicle 1 is faster than before, the processor 120 may control the deployment speed of the virtual driving images displayed on the display apparatus 110 faster than before, and the autonomous vehicle When the speed of (1) is slower than before, the processor 120 may control the development speed of the virtual driving environment images displayed on the display apparatus 110 to be slower than before. Referring to FIG. 10, when the driving speed of the autonomous vehicle 1 is increased, the processor 120 controls the deployment speed of the virtual driving environment images 1020 and 1030 to be displayed on the display device 110 faster. The passenger may be provided with a more realistic driving experience through the virtual driving environment images 1020 and 1030 that are rapidly developed.
또한, 디스플레이 장치(110)가 복수 개인 경우, 프로세서(120)는 움직임 장치(238)에 의해 센싱된 자율 주행 차량(1)의 움직임에 기초하여, 복수 개의 디스플레이 장치(110)들 각각에서 표시되는 가상 주행 환경 영상들 간의 영상 변화율을 제어할 수 있다. 즉, 예를 들어, 디스플레이 장치(110)가 자율 주행 차량(1)의 전면 차창의 영역, 우측면 차창의 영역, 및 좌측면 차창의 영역 각각에 형성되는 경우, 프로세서(120)는 우회전 주행하는 자율 주행 차량(1)의 움직임에 기초하여, 좌측면 차창의 영역에 형성된 디스플레이 장치(110)에서 표시되는 가상 주행 환경 영상들의 영상 변화율과, 우측면 차창의 영역에 형성된 디스플레이 장치(110)에서 표시되는 가상 주행 환경 영상들의 영상 변화율을 다르게 제어할 수 있다. 즉, 프로세서(120)는, 탑승자에게 보다 실감나는 주행 경험을 제공하기 위해, 자율 주행 차량(1)이 우회전 주행하는 경우, 좌측면 차창의 영역에 형성된 디스플레이 장치(110)에서 표시되는 가상 주행 환경 영상들의 전개 속도를, 우측면 차창의 영역에 형성된 디스플레이 장치(110)에서 표시되는 가상 주행 환경 영상들의 전개 속도보다 빠르게 제어할 수 있다.In addition, when there are a plurality of display apparatuses 110, the processor 120 is displayed on each of the plurality of display apparatuses 110 based on the movement of the autonomous vehicle 1 sensed by the movement apparatus 238. An image change rate between the virtual driving environment images may be controlled. That is, for example, when the display device 110 is formed in each of the area of the front window, the area of the right side window, and the area of the left side window of the autonomous vehicle 1, the processor 120 autonomously travels right. Based on the movement of the driving vehicle 1, the image change rate of the virtual driving environment images displayed on the display device 110 formed in the area of the left side window and the virtual display displayed on the display device 110 formed in the area of the right side window The image change rate of the driving environment images may be controlled differently. That is, in order to provide a rider with a more realistic driving experience, the processor 120 may display a virtual driving environment that is displayed on the display device 110 formed in the area of the left side window pane when the autonomous vehicle 1 runs in a right turn. The deployment speed of the images may be controlled to be faster than the deployment speed of the virtual driving environment images displayed on the display apparatus 110 formed in the area of the right side window.
디스플레이 장치(110)가 복수의 차창의 영역들에 형성된 경우, 프로세서(120)는 복수의 차창의 영역들 중 가상 주행 환경 영상을 표시할 차창의 영역을 결정할 수 있다. 일 예에 따라, 프로세서(120)는 탑승자의 선택에 기초하여, 복수의 차창의 영역들 중 가상 주행 환경 영상을 표시할 차창의 영역을 결정할 수 있다.When the display apparatus 110 is formed in the areas of the plurality of window windows, the processor 120 may determine an area of the window window to display the virtual driving environment image among the areas of the plurality of window windows. According to an example, the processor 120 may determine an area of the window window to display the virtual driving environment image among the areas of the plurality of window windows based on the passenger's selection.
또한, 다른 예에 따라, 프로세서(120)는 복수의 차창의 영역들 중 탑승자의 시선에 대응되는 차창의 영역을, 가상 주행 환경 영상을 표시할 차창의 영역으로 결정할 수 있다. 예를 들어, 도 2의 이미지 센서(228)는 탑승자의 시선을 감지할 수 있고, 프로세서(120)는 복수의 차창의 영역들 중 감지된 탑승자의 시선에 대응되는 차창의 영역을, 가상 주행 환경 영상을 표시할 차창의 영역으로 결정할 수 있다. 또한, 일 예에 따라, 자율 주행 차량(1) 내의 탑승자가 복수인 경우, 복수의 탑승자들 중 기 설정된 탑승자를 기준으로, 탑승자의 시선에 대응되는 차창의 영역을, 가상 주행 환경 영상을 표시할 차창의 영역으로 결정할 수 있다. 다른 예에 따라, 자율 주행 차량(1) 내의 탑승자가 복수인 경우, 프로세서(120)는 탑승자의 시선을 감지하는 것을 중단하고, 기 설정된 차창의 영역을 가상 주행 환경 영상을 표시할 차창의 영역으로 결정할 수 있다.In addition, according to another example, the processor 120 may determine an area of the car window corresponding to the line of sight of the passenger among the areas of the plurality of car windows as an area of the car window to display the virtual driving environment image. For example, the image sensor 228 of FIG. 2 may detect a driver's gaze, and the processor 120 may detect an area of the car window corresponding to the detected driver's gaze among the areas of the plurality of car windows, in a virtual driving environment. The area of the window to display the image may be determined. According to an example, when there are a plurality of occupants in the autonomous driving vehicle 1, a virtual driving environment image may be displayed on an area of a vehicle window corresponding to the eyes of the occupant based on a predetermined occupant among the plurality of occupants. Can be determined by the area of the windshield. According to another example, when there are a plurality of occupants in the autonomous vehicle 1, the processor 120 stops detecting the eyes of the occupants, and sets the area of the preset window as an area of the window to display the virtual driving environment image. You can decide.
도 16은 일 실시예에 따라 가상 주행 환경을 표시할 차창의 영역을 선택하는 UI를 나타내는 도면이다.FIG. 16 is a diagram illustrating a UI for selecting an area of a window to display a virtual driving environment according to an exemplary embodiment.
디스플레이 장치(110)가 복수의 차창의 영역들에 형성된 경우, 프로세서(120)는 복수의 차창의 영역들 중 가상 주행 환경 영상을 표시할 차창의 영역을 선택하는 UI(1610)를 탑승자에게 제공할 수 있다. 즉, 도 16에 도시되어 있듯이, 디스플레이 장치(110)가 자율 주행 차량(1)의 전면 차창(401)의 영역, 좌측면 차창(403)의 영역, 우측면 차창(402)의 영역, 후면 차창(404)의 영역 및 천장 차창(405)의 영역에 형성된 경우, 프로세서(120)는 전면 차창(401)의 영역, 좌측면 차창(402)의 영역, 우측면 차창(402)의 영역, 후면 차창(404)의 영역 및 천장 차창(405)의 영역 중 어느 차창의 영역에 가상 주행 환경 영상을 표시할 것인지를 선택하는 UI(1610)를 탑승자에게 제공할 수 있다. 따라서, 탑승자는 UI(1610)를 통해 가상 주행 환경을 표시할 차창의 영역을 선택할 수 있다.When the display apparatus 110 is formed in the areas of the plurality of window windows, the processor 120 may provide a passenger with a UI 1610 that selects an area of the window window to display the virtual driving environment image among the areas of the plurality of window windows. Can be. That is, as shown in FIG. 16, the display apparatus 110 includes an area of the front window 401 of the autonomous vehicle 1, an area of the left window 403, an area of the right window 402, and a rear window ( When formed in the area of 404 and in the area of the ceiling window 405, the processor 120 includes an area of the front window 401, an area of the left side window 402, an area of the right side window 402, a rear window 404. The passenger 16 may be provided with a UI 1610 that selects which area of the vehicle window and the area of the ceiling window 405 to display the virtual driving environment image. Accordingly, the occupant may select an area of the vehicle window to display the virtual driving environment through the UI 1610.
도 17은 탑승자의 시선에 대응되는 차창의 영역에 가상 주행 환경 영상을 표시하는 실시예를 나타내는 도면이다.FIG. 17 is a diagram illustrating an embodiment in which a virtual driving environment image is displayed on an area of a car window corresponding to a line of sight of a passenger.
프로세서(120)는 복수의 차창의 영역들(401,402,403,405) 중 탑승자(1710)의 시선에 대응되는 차창의 영역들(401,403)을, 가상 주행 환경 영상을 표시할 차창의 영역으로 결정할 수 있다. 보다 구체적으로, 이미지 센서(228)는 탑승자(1710)의 시선을 감지할 수 있고, 프로세서(120)는 탑승자(1710)의 시선 방향과 특정 각도 범위 내에 위치한 차창의 영역들(401,403)을, 가상 주행 환경 영상을 표시할 차창의 영역으로 결정할 수 있다.The processor 120 may determine the areas 401 and 403 of the car window corresponding to the line of sight of the occupant 1710 among the areas 401, 402, 403 and 405 of the plurality of car windows as the area of the car window to display the virtual driving environment image. More specifically, the image sensor 228 may detect the gaze of the occupant 1710, and the processor 120 may virtually identify the areas 401 and 403 of the windshield located within a specific angle range with the gaze direction of the occupant 1710. It may be determined as an area of a vehicle window to display the driving environment image.
만약 탑승자(1710)가 고개를 오른편으로 돌린다면, 프로세서(120)는 탑승자(1710)의 시선에 대응되는 차창의 영역들(401,402)을, 가상 주행 환경 영상을 표시할 차창의 영역으로 결정할 수 있다.If the occupant 1710 turns his head to the right, the processor 120 may determine the areas 401 and 402 of the car window corresponding to the gaze of the occupant 1710 as the area of the car window to display the virtual driving environment image. .
다시 도 3을 참조하면, 프로세서(120)는 디스플레이 장치(110)가 탑승자에 의해 선택 가능한 컨텐츠를 표시하는 것을 제어할 수 있다. 컨텐츠는 인터넷이나 컴퓨터 통신 등을 통하여 제공되는 영상 또는 사진과 같은 내용물이 될 수 있으며, 자율 주행 차량(1)에서 자체적으로 제공되는 영상이 될 수 있다. 프로세서(120)는 컨텐츠를 선택할 수 있는 UI를 탑승자에게 제공할 수 있고, 탑승자가 선택한 컨텐츠를 디스플레이 장치(110)에서 표시되도록 제어할 수 있다.Referring back to FIG. 3, the processor 120 may control the display apparatus 110 to display content selectable by the occupant. The content may be a content such as an image or a picture provided through the Internet or computer communication, or may be an image provided by the autonomous vehicle 1 itself. The processor 120 may provide a passenger to select a content to the passenger and control the display device 110 to display the content selected by the passenger.
도 18은 일 실시예에 따라 디스플레이 장치에 표시할 컨텐츠를 선택하는 UI를 나타내는 도면이다.18 is a diagram illustrating a UI for selecting content to display on a display apparatus, according to an exemplary embodiment.
프로세서(120)는 디스플레이 장치(110)에 표시할 컨텐츠를 선택하는 UI(1810)를 탑승자에게 제공할 수 있다. 즉, 프로세서(120)는 유투브(Youtube), 영화(Movie Library), 또는 넷플릭스(Netflix)를 선택할 수 있는 UI(1810)를 탑승자에게 제공할 수 있다. 또한, 프로세서(120)는 차창에 설치된 이미지 센서(228)에 의해 촬영된 영상을 선택할 수 있는 UI(1810)를 탑승자에게 제공할 수 있으며, 가상 주행 환경 영상을 선택할 수 있는 UI(1810)를 탑승자에게 제공할 수 있다.The processor 120 may provide a passenger with a UI 1810 for selecting content to be displayed on the display apparatus 110. In other words, the processor 120 may provide a passenger with a UI 1810 capable of selecting a YouTube, a movie library, or Netflix. In addition, the processor 120 may provide a passenger with a UI 1810 capable of selecting an image captured by the image sensor 228 installed in the vehicle window, and provide a passenger with a UI 1810 capable of selecting a virtual driving environment image. Can be provided to
도 19는 디스플레이 장치에 영화를 표시하는 실시예를 나타내는 도면이다.19 is a diagram illustrating an embodiment of displaying a movie on a display device.
탑승자(1910)는 도 18의 UI(1810)를 통해 디스플레이 장치(110)에 표시할 컨텐츠로써 영화를 선택할 수 있다. 이어서, 탑승자(1910)는 자율 주행 차량(1) 내에서 누워서 천장에 해당하는 차창(405)의 영역을 바라볼 수 있다. The occupant 1910 may select a movie as content to be displayed on the display apparatus 110 through the UI 1810 of FIG. 18. Subsequently, the occupant 1910 may lie in the autonomous vehicle 1 and look at the area of the car window 405 corresponding to the ceiling.
따라서, 프로세서(120)는 탑승자(1910)의 시선에 대응되는 천장에 해당하는 차창(405)의 영역에 형성된 디스플레이 장치(110)에서 영화를 표시하도록 제어할 수 있다.Therefore, the processor 120 may control to display a movie on the display device 110 formed in the area of the window 405 corresponding to the ceiling of the occupant 1910.
다시 도 3을 참조하면, 프로세서(120)는 기 설정된 이벤트가 발생하는 지 여부를 판단할 수 있다. 기 설정된 이벤트가 발생하는 경우, 프로세서(120)는 기 설정된 이벤트와 연관된 정보를 탑승자에게 제공할 수 있다. 일 예에 따라, 기 설정된 이벤트가 발생하는 경우, 프로세서(120)는 이벤트와 연관된 실제 주행 환경에 대한 영상이 디스플레이 장치(110)에서 표시되도록 제어할 수 있다. 즉, 기 설정된 이벤트가 발생하는 경우, 프로세서(120)는 자율 주행 차량(1)의 탑승자가 디스플레이 장치(110)를 통해 이벤트에 대응되는 실제 주행 환경을 볼 수 있도록 제어할 수 있다. 디스플레이 장치(110)가 가상 주행 환경 영상을 표시하는 도중에, 기 설정된 이벤트가 발생하는 경우, 프로세서(120)는 디스플레이 장치(110)가 이벤트와 연관된 실제 주행 환경에 대한 영상으로 변경하여 표시하도록 제어할 수 있다. 또한, 프로세서(120)는 디스플레이 장치(110)가 가상 주행 환경 영상과 이벤트와 연관된 실제 주행 환경에 대한 영상을 동시에 표시하도록 제어할 수 있다. 즉, 자율 주행 차량(1)은 차창에 형성된 디스플레이 장치(110)를 통해 가상 주행 환경 영상 또는 컨텐츠를 표시하고 있으므로, 탑승자는 자율 주행 차량(1) 주변의 실제 주행 환경을 볼 수 없기 때문에, 기 설정된 이벤트에 대한 정보를 탑승자에게 별도로 제공할 수 있다.Referring back to FIG. 3, the processor 120 may determine whether a preset event occurs. When a preset event occurs, the processor 120 may provide the passenger with information associated with the preset event. According to an example, when a preset event occurs, the processor 120 may control an image of an actual driving environment associated with the event to be displayed on the display apparatus 110. That is, when a preset event occurs, the processor 120 may control the passenger of the autonomous vehicle 1 to view the actual driving environment corresponding to the event through the display device 110. When the preset event occurs while the display device 110 displays the virtual driving environment image, the processor 120 may control the display device 110 to display the changed driving image as an image of the actual driving environment associated with the event. Can be. In addition, the processor 120 may control the display apparatus 110 to simultaneously display the virtual driving environment image and the image of the actual driving environment associated with the event. That is, since the autonomous vehicle 1 displays the virtual driving environment image or the content through the display device 110 formed in the vehicle window, the occupant cannot see the actual driving environment around the autonomous vehicle 1. Information on the set event can be provided to the passenger separately.
기 설정된 이벤트는 자율 주행 차량(1)이 기 설정된 시간 동안 정지해 있는 상황이 될 수 있다. 예를 들어, 교통 정체로 인해 자율 주행 차량(1)이 30초 이상 정지해 있는 경우, 프로세서(120)는 기 설정된 이벤트가 발생하였다고 판단할 수 있다. 이어서, 프로세서(120)는 기 설정된 이벤트와 연관된 실제 주행 환경인 교통 정체 상황이 디스플레이 장치(110)에서 표시되도록 제어할 수 있다.The preset event may be a situation in which the autonomous vehicle 1 is stopped for a preset time. For example, when the autonomous vehicle 1 is stopped for 30 seconds or more due to traffic jam, the processor 120 may determine that a predetermined event has occurred. Subsequently, the processor 120 may control the traffic congestion situation, which is an actual driving environment associated with a preset event, to be displayed on the display apparatus 110.
기 설정된 이벤트는 자율 주행 차량(1)의 주변 날씨가 변화되는 상황이 될 수 있다. 예를 들어, 자율 주행 차량(1)의 날씨가 맑은 날씨에서 비가 오는 날씨로 변하는 경우, 프로세서(120)는 기 설정된 이벤트가 발생하였다고 판단할 수 있다. 이어서, 프로세서(120)는 기 설정된 이벤트와 연관된 실제 주행 환경인 이미지 센서(228)로 촬영한 비가 오는 모습이 디스플레이 장치(110)에서 표시되도록 제어할 수 있다. The preset event may be a situation in which the weather around the autonomous vehicle 1 changes. For example, when the weather of the autonomous vehicle 1 changes from a clear weather to a rainy weather, the processor 120 may determine that a predetermined event has occurred. Subsequently, the processor 120 may control the display apparatus 110 to display a rainy image captured by the image sensor 228 which is an actual driving environment associated with a preset event.
기 설정된 이벤트는 자율 주행 차량(1)의 탑승자 신체 상태 변화가 존재하는 상황이 될 수 있다. 예를 들어, 탑승자가 깨어 있는 상태에서 수면 중인 상태로 변하는 경우, 프로세서(120)는 기 설정된 이벤트가 발생하였다고 판단할 수 있다. 보다 구체적으로, 이미지 센서(228)는 탑승자의 눈을 촬영할 수 있고, 프로세서(120)는 탑승자의 눈이 평소 상태에 비해 기준 비율 이상 감긴 경우, 또는 탑승자가 눈을 감고 있는 시간이 기준 시간 이상인 경우에 탑승자가 수면 상태라고 판단할 수 있다. 이어서, 프로세서(120)는 탑승자의 수면을 방해하지 않기 위해, 가상 주행 환경 영상의 표시를 중단하고, 자율 주행 차량(1)의 내부 조명(245)을 소등할 수 있다.The preset event may be a situation in which a change in the physical state of the occupant of the autonomous vehicle 1 exists. For example, when the occupant changes from the waking state to the sleeping state, the processor 120 may determine that a predetermined event has occurred. More specifically, the image sensor 228 may photograph the occupant's eyes, and the processor 120 may close the occupant's eyes more than a reference ratio compared to the normal state, or when the occupant's eyes are closed for more than the reference time. The passenger may be determined to be in a sleep state at. Subsequently, the processor 120 may stop displaying the virtual driving environment image and turn off the internal lighting 245 of the autonomous vehicle 1 in order not to disturb the sleep of the occupant.
도 20은 일 실시예에 따른 이벤트를 설정할 수 있는 UI를 나타내는 도면이다.20 is a diagram illustrating a UI for setting an event, according to an exemplary embodiment.
프로세서(120)는 탑승자에게 이벤트를 설정할 수 있는 UI(2010)를 제공할 수 있다. 탑승자는 복수의 이벤트들(예로, 차량이 갑자기 속력을 변경시키는 상황, 차량이 고속 도로로 진입하는 상황, 차량이 랜드마크 주변에 위치하는 상황, 차량이 목적지에 도착하는 상황, 날씨가 변하는 상황, 주변 도로 상태가 위험한 상황, 및 응급 차량이 주변에 있는 상황) 중 어느 이벤트를 기준으로 향후 발생된 이벤트에 대한 정보를 제공 받을지 여부를 UI(2010)를 통해 미리 설정할 수 있다. 따라서, 프로세서(120)는 UI(2010)에서 선택된 이벤트가 발생되는 경우, 탑승자에게 선택된 이벤트에 대한 정보를 제공할 수 있다.The processor 120 may provide a UI 2010 for setting an event for the occupant. The occupant is responsible for a number of events (e.g., the vehicle suddenly changes speed, the vehicle enters a freeway, the vehicle is located near a landmark, the vehicle arrives at its destination, the weather changes, The UI 2010 may preset whether to be provided with information about future events based on which event of a road condition is dangerous and a situation where an emergency vehicle is around. Therefore, when the event selected in the UI 2010 occurs, the processor 120 may provide information about the selected event to the occupant.
도 21은 기 설정된 이벤트가 발생하는 경우, 프로세서가 발생된 이벤트에 대한 정보를 탑승자에게 제공하는 실시예를 나타내는 도면이다.FIG. 21 is a diagram for one embodiment of providing a passenger with information on an event when a predetermined event occurs.
프로세서(120)는 가상 주행 환경 영상(2110)이 디스플레이 장치(110)에서 표시되도록 제어할 수 있다. 자율 주행 차량(1)은 주행 중에 갑작스럽게 야생 동물이 등장하였음을 감지할 수 있고, 자율 주행 차량(1)은 갑작스럽게 속력을 변화시킬 수 있다. 이어서, 프로세서(120)는 갑자기 속력이 변화하는 상황인 기 설정된 이벤트가 발생하였다고 판단할 수 있다. 이어서, 프로세서(120)는 가상 주행 환경 영상(2110)을 표시하는 디스플레이 장치(110)가 일부 영역에, 기 설정된 이벤트와 연관된 실제 주행 환경인 야생 동물을 촬영한 영상(2120)을 표시하도록 제어할 수 있다.The processor 120 may control the virtual driving environment image 2110 to be displayed on the display device 110. The autonomous vehicle 1 may detect that a wild animal has suddenly appeared while driving, and the autonomous vehicle 1 may suddenly change speed. Subsequently, the processor 120 may determine that a predetermined event, which is a situation in which the speed suddenly changes, occurs. Subsequently, the processor 120 controls the display apparatus 110 displaying the virtual driving environment image 2110 to display an image 2120 of a wild animal, which is a real driving environment associated with a preset event, in a partial region. Can be.
도 22는 기 설정된 이벤트가 발생하는 경우, 프로세서가 발생된 이벤트에 대한 정보를 탑승자에게 제공하는 실시예를 나타내는 도면이다.FIG. 22 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
프로세서(120)는 가상 주행 환경 영상(2210)이 디스플레이 장치(110)에서 표시되도록 제어할 수 있다. 이때, 자율 주행 차량(1)은 주행 중에 현재 위치가 랜드 마크 주변임을 인식할 수 있고, 프로세서(120)는 랜드마크 주변에 위치하는 상황인 기 설정된 이벤트가 발생하였다고 판단할 수 있다. 이어서, 프로세서(120)는 디스플레이 장치(110)가 가상 주행 환경 영상(2210)에서 기 설정된 이벤트와 연관된 실제 주행 환경인 랜드 마크를 촬영한 영상(2220)으로 변경하여 표시하도록 제어할 수 있다.The processor 120 may control the virtual driving environment image 2210 to be displayed on the display device 110. In this case, the autonomous vehicle 1 may recognize that the current location is around the landmark while driving, and the processor 120 may determine that a preset event, which is a situation that is located around the landmark, has occurred. Subsequently, the processor 120 may control the display apparatus 110 to change and display a landmark, which is an actual driving environment associated with a preset event, in the virtual driving environment image 2210 as a captured image 2220.
다른 예에 따라, 디스플레이 장치(110)가 투명 디스플레이인 경우, 자율 주행 차량(1)이 랜드마크 주변에 위치하는 상황에서, 프로세서(120)는 가상 주행 환경 영상(2210)을 표시하는 디스플레이 장치(110)를 투명하게 처리하여, 탑승자가 투명하게 처리된 디스플레이 장치(110)를 통해 실제 주행 환경(2220)을 볼 수 있도록 제어할 수 있다.According to another example, when the display device 110 is a transparent display, in a situation in which the autonomous vehicle 1 is positioned around a landmark, the processor 120 may display a display device that displays a virtual driving environment image 2210. By transparently processing 110, the passenger may view the actual driving environment 2220 through the transparently processed display device 110.
도 23은 기 설정된 이벤트가 발생하는 경우, 프로세서가 발생된 이벤트에 대한 정보를 탑승자에게 제공하는 실시예를 나타내는 도면이다.FIG. 23 is a diagram for one embodiment of providing a passenger with information about an event when a predetermined event occurs.
프로세서(120)는 가상 주행 환경 영상(2310)이 디스플레이 장치(110)에서 표시되도록 제어할 수 있다. 프로세서(120)는 자율 주행 차량(1)의 주행 중에 주변 날씨가 비가 오는 상황임을 인식하여, 기 설정된 이벤트가 발생하였다고 판단할 수 있다. 이어서, 프로세서(120)는 비가 온다는 정보를 음향 출력부(282)를 통해 탑승자에게 제공할 수 있다.The processor 120 may control the virtual driving environment image 2310 to be displayed on the display device 110. The processor 120 may recognize that the surrounding weather is raining while the autonomous vehicle 1 is driving, and determine that a preset event has occurred. Subsequently, the processor 120 may provide information to the occupant via the sound output unit 282 that rain comes.
도 24는 일 실시예에 따른 자율 주행 차량의 동작 방법의 흐름도이다.24 is a flowchart of a method of operating an autonomous vehicle, according to an exemplary embodiment.
도 24에 도시된 방법은, 앞서 도면들에서 설명된 자율 주행 차량(1)에 의해 시계열적으로 수행되는 방법일 수 있다.The method shown in FIG. 24 may be a method performed in time series by the autonomous vehicle 1 described in the drawings.
단계 2410에서, 자율 주행 차량(1)은 자율 주행 차량(1)의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 획득할 수 있다.In operation 2410, the autonomous vehicle 1 may acquire a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1.
자율 주행 차량(1)은 자율 주행 차량(1)의 현재 위치로부터 목적지까지의 주행 경로에 대한 정보에 기초하여, 가상 주행 환경 영상을 생성할 수 있다. 보다 구체적으로, 자율 주행 차량(1)은 자율 주행 차량(1)의 현재 위치로부터 목적지까지의 주행 경로에 대한 정보를 획득할 수 있고, 기 설정된 가상 현실에 획득된 주행 경로를 반영하여, 가상 주행 환경 영상을 생성할 수 있다. 또한, 자율 주행 차량(1)은 자율 주행 차량(1)의 주행 경로 상의 지점들을 기준으로, 지점들 각각에 대응되는 가상 주행 환경 영상들을 생성할 수 있다. The autonomous vehicle 1 may generate a virtual driving environment image based on the information on the driving route from the current position of the autonomous vehicle 1 to the destination. More specifically, the autonomous vehicle 1 may obtain information about a driving route from the current position of the autonomous vehicle 1 to the destination, and reflect the driving route obtained in the preset virtual reality, thereby driving virtually. An environment image can be generated. In addition, the autonomous vehicle 1 may generate virtual driving environment images corresponding to each of the points based on the points on the driving route of the autonomous vehicle 1.
자율 주행 차량(1)은 자율 주행 차량(1)의 실제 주행 환경에 대한 영상에 기초하여, 가상 주행 환경 영상을 생성할 수 있다. 자율 주행 차량(1)은 자율 주행 차량(1)의 실제 주행 환경에 대한 영상을 획득할 수 있고, 자율 주행 차량(1)은 획득한 실제 주행 환경에 대한 영상에 기초하여, 가상 주행 환경 영상을 생성할 수 있다. 보다 구체적으로, 자율 주행 차량(1)은 실제 주행 환경에 대한 영상을 통해 도로 모습을 인식할 수 있고, 인식된 도로 모습을 가상 현실에 반영하여, 가상 주행 환경 영상을 생성할 수 있다.The autonomous vehicle 1 may generate a virtual driving environment image based on an image of the actual driving environment of the autonomous vehicle 1. The autonomous vehicle 1 may acquire an image of the actual driving environment of the autonomous vehicle 1, and the autonomous vehicle 1 may generate a virtual driving environment image based on the acquired image of the actual driving environment. Can be generated. More specifically, the autonomous vehicle 1 may recognize a road image through an image of an actual driving environment, and generate a virtual driving environment image by reflecting the recognized road image in a virtual reality.
자율 주행 차량(1)은 외부 네트워크로부터 가상 주행 환경 영상을 획득할 수 있다. 자율 주행 차량(1)은 자율 주행 차량(1)이 직진 주행하는 동작에 대응되는 가상 주행 환경 영상, 및 자율 주행 차량(1)이 좌회전 또는 우회전 주행하는 동작에 대응되는 가상 주행 환경 영상을 각각 동영상으로써 획득할 수 있다.The autonomous vehicle 1 may acquire a virtual driving environment image from an external network. The autonomous vehicle 1 is a moving image of the virtual driving environment corresponding to the operation of driving the autonomous driving vehicle 1, and the virtual driving environment image corresponding to the operation of driving the left or right turn of the autonomous vehicle 1, respectively, the video Can be obtained.
또한, 자율 주행 차량(1)은 입력 장치(260)를 통해 가상 주행 환경 영상을 획득할 수 있다. 보다 구체적으로, 자율 주행 차량(1)의 입력 장치(260)는 사용자로부터 가상 주행 환경을 선택 받을 수 있고, 사용자로부터 선택된 가상 주행 환경을 나타내는 영상을 획득할 수 있다.In addition, the autonomous vehicle 1 may acquire a virtual driving environment image through the input device 260. More specifically, the input device 260 of the autonomous vehicle 1 may receive a selection of a virtual driving environment from the user, and acquire an image indicating the virtual driving environment selected from the user.
단계 2420에서, 자율 주행 차량(1)은 자율 주행 차량(1)의 차창의 영역에 형성되는 디스플레이 장치가 가상 주행 환경 영상을 표시하도록 제어할 수 있다. 자율 주행 차량(1)은 디스플레이 장치가 자율 주행 차량(1)의 주행 경로 상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 연속적으로 표시하도록 제어할 수 있다. 또한, 자율 주행 차량(1)은 자율 주행 차량(1)이 직진 주행하는 동작에 대응되는 가상 주행 환경 영상, 및 자율 주행 차량(1)이 좌회전 또는 우회전 주행하는 동작에 대응되는 가상 주행 환경 영상을 디스플레이 장치가 동영상으로써 재생하도록 제어할 수 있다.In operation 2420, the autonomous vehicle 1 may control the display device formed in the area of the window of the autonomous vehicle 1 to display the virtual driving environment image. The autonomous vehicle 1 may control the display device to continuously display virtual driving environment images corresponding to each of the points on the driving route of the autonomous vehicle 1. In addition, the autonomous vehicle 1 may include a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 travels straight, and a virtual driving environment image corresponding to an operation in which the autonomous vehicle 1 travels left or right. The display device can be controlled to play back as a moving picture.
또한, 자율 주행 차량(1)의 차창은 s2410에서 사용자로부터 선택된 가상 주행 환경을 디스플레이할 수 있다. 즉, 자율 주행 차량(1)의 차창은 선택된 가상 주행 환경을 나타내는 영상을 디스플레이할 수 있다.In addition, the windshield of the autonomous vehicle 1 may display the virtual driving environment selected by the user in s2410. That is, the vehicle window of the autonomous vehicle 1 may display an image representing the selected virtual driving environment.
도 25는 도 24의 단계 2420를 구체화한 상세 흐름도이다.FIG. 25 is a detailed flowchart embodying step 2420 of FIG. 24.
단계 2510에서, 자율 주행 차량(1)은 자율 주행 차량(1)의 움직임을 센싱할 수 있다. 자율 주행 차량(1)은 자율 주행 차량(1)의 주행 속도, 위치 변화 및 방향 변화를 센싱할 수 있다. 또한, 자율 주행 차량(1)은 자율 주행 차량(1)의 주행 중 상태 또는 정지 상태를 센싱할 수 있다.In operation 2510, the autonomous vehicle 1 may sense a movement of the autonomous vehicle 1. The autonomous vehicle 1 may sense a traveling speed, a position change, and a direction change of the autonomous vehicle 1. In addition, the autonomous vehicle 1 may sense a driving state or a stationary state of the autonomous vehicle 1.
단계 2520에서, 자율 주행 차량(1)은 센싱된 움직임에 기초하여, 디스플레이 장치가 가상 주행 환경 영상을 표시하도록 제어할 수 있다.In operation 2520, the autonomous vehicle 1 may control the display device to display the virtual driving environment image based on the sensed movement.
자율 주행 차량(1)은 센싱된 움직임에 기초하여, 디스플레이 장치가 자율 주행 차량(1)의 주행 경로상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 표시하도록 제어할 수 있다. 디스플레이 장치가 가상 주행 환경 영상들을 연속적으로 표시하는 도중에, 자율 주행 차량(1)의 정지 상태가 센싱되는 경우, 자율 주행 차량(1)은 가상 주행 환경 영상들의 연속적 표시를 일시 중지시킬 수 있다.The autonomous vehicle 1 may control the display device to display virtual driving environment images corresponding to each of the points on the driving route of the autonomous vehicle 1 based on the sensed movement. While the display device continuously displays the virtual driving environment images, when the stationary state of the autonomous vehicle 1 is sensed, the autonomous vehicle 1 may pause the continuous display of the virtual driving environment images.
자율 주행 차량(1)은 센싱된 움직임에 기초하여, 디스플레이 장치에서 표시되는 가상 주행 환경 영상들의 영상 변화율을 제어할 수 있다. 영상 변화율은 가상 주행 환경 영상들이 디스플레이 장치에서 전개되는 속도가 될 수 있다. 따라서, 자율 주행 차량(1)의 주행 속도가 센싱되는 경우, 자율 주행 차량(1)은 센싱된 속도에 기초하여, 디스플레이 장치에서 표시되는 가상 주행 환경 영상들 간의 영상 변화율을 제어할 수 있다.The autonomous vehicle 1 may control an image change rate of the virtual driving environment images displayed on the display device based on the sensed movement. The image change rate may be a speed at which the virtual driving environment images are developed on the display device. Therefore, when the driving speed of the autonomous vehicle 1 is sensed, the autonomous vehicle 1 may control the rate of change of the image between the virtual driving environment images displayed on the display device based on the sensed speed.
자율 주행 차량(1)은, 자율 주행 차량(1)이 직진 주행하는 경우, 디스플레이 장치가 직진 주행에 대응되는 가상 주행 환경 영상을 동영상으로 재생하도록 제어할 수 있다. 또한, 자율 주행 차량(1)은 자율 주행 차량(1)이 좌회전 또는 우회전 주행하는 경우, 디스플레이 장치(110)가 좌회전 주행 또는 우회전 주행에 대응되는 가상 주행 환경 영상을 동영상으로 재생하도록 제어할 수 있다. When the autonomous vehicle 1 travels straight, the autonomous vehicle 1 may control the display apparatus to reproduce a virtual driving environment image corresponding to the straight driving as a moving image. In addition, the autonomous vehicle 1 may control the display apparatus 110 to reproduce a virtual driving environment image corresponding to the left turn driving or the right turn driving as a moving image when the autonomous driving vehicle 1 travels left or right. .
도 26은 일 실시예에 따른 자율 주행 차량의 동작 방법의 상세 흐름도이다.26 is a detailed flowchart of a method of operating an autonomous vehicle according to an embodiment.
도 26에 도시된 방법은, 앞서 도면들에서 설명된 자율 주행 차량(1)에 의해 시계열적으로 수행되는 방법일 수 있다.The method shown in FIG. 26 may be a method performed in time series by the autonomous vehicle 1 described above in the figures.
단계 2610에서, 자율 주행 차량(1)은 자율 주행 차량(1)의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 획득할 수 있다. 단계 2610은 도 24의 단계 2410과 대응될 수 있다.In operation 2610, the autonomous vehicle 1 may acquire a virtual driving environment image that replaces the actual driving environment of the autonomous vehicle 1. Step 2610 may correspond to step 2410 of FIG. 24.
단계 2620에서, 자율 주행 차량(1)은 자율 주행 차량(1)의 차창의 영역에 형성되는 디스플레이 장치가 가상 주행 환경 영상을 표시하도록 제어할 수 있다. 단계 2620은 도 24의 단계 2420과 대응될 수 있다.In operation 2620, the autonomous vehicle 1 may control the display device formed in the area of the window of the autonomous vehicle 1 to display the virtual driving environment image. Step 2620 may correspond to step 2420 of FIG. 24.
단계 2630에서, 자율 주행 차량(1)은 기 설정된 이벤트가 발생하는 지 여부를 판단할 수 있다. 기 설정된 이벤트는 일 예에 따라, 차량이 갑자기 속력을 변경시키는 상황, 차량이 고속 도로로 진입하는 상황, 차량이 랜드마크 주변에 위치하는 상황, 차량이 목적지에 도착하는 상황, 날씨가 변하는 상황, 주변 도로 상태가 위험한 상황, 및 응급 차량이 주변에 있는 상황 중 적어도 하나가 될 수 있다.In operation 2630, the autonomous vehicle 1 may determine whether a preset event occurs. The preset event may be a situation in which a vehicle suddenly changes speed, a vehicle enters a highway, a vehicle is located near a landmark, a vehicle arrives at a destination, a weather is changed, and a surrounding The road condition may be at least one of a dangerous situation and an emergency vehicle in the vicinity.
단계 2630의 판단 결과 기 설정된 이벤트가 발생하는 경우, 자율 주행 차량(1)은 자율 주행 차량(1)의 탑승자가 디스플레이 장치를 통해 이벤트에 대응되는 실제 주행 환경을 볼 수 있도록 제어할 수 있다. 일 예에 따라, 디스플레이 장치가 가상 주행 환경 영상을 표시하는 도중에, 기 설정된 이벤트가 발생하는 경우, 자율 주행 차량(1)은 디스플레이 장치가 이벤트와 연관된 실제 주행 환경에 대한 영상으로 변경하여 표시하도록 제어할 수 있다. 또한, 자율 주행 차량(1)은 디스플레이 장치가 가상 주행 환경 영상과 이벤트와 연관된 실제 주행 환경에 대한 영상을 동시에 표시하도록 제어할 수 있다.As a result of the determination in operation 2630, when the preset event occurs, the autonomous vehicle 1 may control the passenger of the autonomous vehicle 1 to view the actual driving environment corresponding to the event through the display device. According to an example, when a preset event occurs while the display device displays the virtual driving environment image, the autonomous vehicle 1 controls the display device to change and display the image of the actual driving environment associated with the event. can do. In addition, the autonomous vehicle 1 may control the display device to simultaneously display the virtual driving environment image and the image of the actual driving environment associated with the event.
상기 살펴 본 실시예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. The device according to the above-described embodiments includes a processor, memory for storing and executing program data, permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button And a user interface device such as the like. Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. The computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc). The computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. The medium is readable by the computer, stored in the memory, and can be executed by the processor.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, an embodiment may include an integrated circuit configuration such as memory, processing, logic, look-up table, etc. that may execute various functions by the control of one or more microprocessors or other control devices. You can employ them. Similar to the components that may be implemented as software programming or software elements, the present embodiment includes various algorithms implemented in C, C ++, Java (data structures, processes, routines or other combinations of programming constructs). It may be implemented in a programming or scripting language such as Java), an assembler, or the like. The functional aspects may be implemented with an algorithm running on one or more processors. In addition, the present embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing. Terms such as "mechanism", "element", "means", "configuration" can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. Specific implementations described in this embodiment are examples, and do not limit the technical scope in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings by way of example shows a functional connection and / or physical or circuit connections, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections.
본 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In this specification (particularly in the claims), the use of the term “above” and similar indicating terminology may correspond to both the singular and the plural. In addition, when a range is described, it includes the individual values which belong to the said range (if there is no description contrary to it), and it is the same as describing each individual value which comprises the said range in detailed description. Finally, if there is no explicit order or contrary to the steps constituting the method, the steps may be performed in a suitable order. It is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary terms (eg, etc.) is for the purpose of describing technical concepts in detail and is not to be limited in scope by the examples or exemplary terms unless defined by the claims. In addition, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made depending on design conditions and factors within the scope of the appended claims or equivalents thereof.

Claims (26)

  1. 자율 주행 차량(autonomous vehicle)에 있어서,In an autonomous vehicle,
    상기 자율 주행 차량의 차창(car window)의 영역에 형성되는 디스플레이 장치; 및A display device formed in an area of a car window of the autonomous vehicle; And
    상기 디스플레이 장치가 상기 자율 주행 차량의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 표시하도록 제어하는 프로세서;를 포함하는, 자율 주행 차량.And a processor configured to control the display device to display a virtual driving environment image that replaces the actual driving environment of the autonomous driving vehicle.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 가상 주행 환경 영상은,The virtual driving environment image,
    상기 자율 주행 차량 내부의 시점(viewpoint)에서 상기 차창의 영역을 향해 바라본 상기 자율 주행 차량 외부의 가상 주행 환경을 나타내는 영상인, 자율 주행 차량.And an image representing a virtual driving environment outside the autonomous vehicle as viewed toward an area of the vehicle window from a viewpoint inside the autonomous vehicle.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    상기 자율 주행 차량의 현재 위치로부터 목적지까지의 주행 경로에 대한 정보를 획득하고, 상기 주행 경로 상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 생성하는, 자율 주행 차량.And obtaining information on a driving route from a current position of the autonomous driving vehicle to a destination, and generating virtual driving environment images corresponding to each of the points on the driving route.
  4. 제 3 항에 있어서,The method of claim 3, wherein
    상기 자율 주행 차량의 움직임을 센싱하는 움직임 센싱 장치;를 더 포함하고,Further comprising: a motion sensing device for sensing the movement of the autonomous vehicle,
    상기 프로세서는,The processor,
    상기 센싱된 움직임에 기초하여, 상기 디스플레이 장치가 상기 가상 주행 환경 영상들을 표시하도록 제어하는, 자율 주행 차량.And the display apparatus controls to display the virtual driving environment images based on the sensed movement.
  5. 제 4 항에 있어서,The method of claim 4, wherein
    상기 움직임 센싱 장치는,The motion sensing device,
    상기 자율 주행 차량의 주행 속도를 센싱하고,Sensing the driving speed of the autonomous vehicle,
    상기 프로세서는,The processor,
    상기 센싱된 주행 속도에 기초하여, 상기 디스플레이 장치에서 표시되는 상기 가상 주행 환경 영상들 간의 영상 변화율을 제어하는, 자율 주행 차량.And controlling an image change rate between the virtual driving environment images displayed on the display device based on the sensed driving speed.
  6. 제 4 항에 있어서,The method of claim 4, wherein
    상기 프로세서는,The processor,
    상기 디스플레이 장치가 복수 개인 경우, 상기 센싱된 움직임에 기초하여, 상기 복수개의 디스플레이 장치들 각각에서 표시되는 상기 가상 주행 환경 영상들 간의 영상 변화율을 제어하는, 자율 주행 차량.And a plurality of display devices, based on the sensed movement, controlling an image change rate between the virtual driving environment images displayed on each of the plurality of display devices.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 실제 주행 환경에 대한 영상을 촬영하는 이미지 센서;를 더 포함하고,And an image sensor for capturing an image of the actual driving environment.
    상기 프로세서는,The processor,
    상기 촬영된 실제 주행 환경에 대한 영상에 기초하여, 상기 가상 주행 환경 영상을 생성하는, 자율 주행 차량.And generating the virtual driving environment image based on the captured image of the actual driving environment.
  8. 제 7 항에 있어서,The method of claim 7, wherein
    상기 프로세서는,The processor,
    상기 실제 주행 환경에 대한 영상에 나타난 객체의 모습이 반영된 상기 가상 주행 환경 영상을 생성하는, 자율 주행 차량.And generating the virtual driving environment image reflecting the appearance of the object shown in the image of the actual driving environment.
  9. 제 1 항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    복수의 가상 현실들 중에서 상기 자율 주행 차량의 탑승자로부터 선택된 가상 현실에 기초하여, 상기 가상 주행 환경 영상을 생성하는, 자율 주행 차량.The virtual driving environment image is generated based on a virtual reality selected from a passenger of the autonomous vehicle among a plurality of virtual reality.
  10. 제 1 항에 있어서,The method of claim 1,
    상기 프로세서는,The processor,
    기 설정된 이벤트가 발생하는 지 여부를 판단하고, 상기 이벤트가 발생하는 경우, 상기 자율 주행 차량의 탑승자가 상기 디스플레이 장치를 통해 상기 이벤트에 대응되는 실제 주행 환경을 볼 수 있도록 제어하는, 자율 주행 차량.And determining whether or not a predetermined event occurs, and when the event occurs, controlling the passenger of the autonomous vehicle to view the actual driving environment corresponding to the event through the display device.
  11. 자율 주행 차량(autonomous vehicle)의 동작 방법에 있어서,In a method of operating an autonomous vehicle,
    상기 자율 주행 차량의 실제 주행 환경을 대신하는 가상 주행 환경 영상을 획득하는 단계; 및Acquiring a virtual driving environment image in place of an actual driving environment of the autonomous vehicle; And
    상기 자율 주행 차량의 차창(car window)의 영역에 형성되는 디스플레이 장치가 상기 가상 주행 환경 영상을 표시하도록 제어하는 단계;를 포함하는, 자율 주행 차량의 동작 방법.And controlling a display device formed in an area of a car window of the autonomous vehicle to display the virtual driving environment image.
  12. 제 11 항에 있어서,The method of claim 11,
    상기 가상 주행 환경 영상은,The virtual driving environment image,
    상기 자율 주행 차량 내부의 시점(viewpoint)에서 상기 차창의 영역을 향해 바라본 상기 자율 주행 차량 외부의 가상 주행 환경을 나타내는 영상인, 자율 주행 차량의 동작 방법.And an image representing a virtual driving environment outside of the autonomous vehicle viewed toward the area of the vehicle window from a viewpoint inside the autonomous vehicle.
  13. 제 11 항에 있어서,The method of claim 11,
    상기 가상 주행 환경 영상을 획득하는 단계는,Acquiring the virtual driving environment image,
    상기 자율 주행 차량의 현재 위치로부터 목적지까지의 주행 경로에 대한 정보를 획득하는 단계; 및Obtaining information about a driving route from a current position of the autonomous vehicle to a destination; And
    상기 주행 경로 상의 지점들 각각에 대응되는 가상 주행 환경 영상들을 생성하는 단계를 포함하는, 자율 주행 차량의 동작 방법.Generating virtual driving environment images corresponding to each of the points on the driving route.
  14. 제 13 항에 있어서,The method of claim 13,
    상기 자율 주행 차량의 움직임을 센싱하는 단계;를 더 포함하고,Sensing the movement of the autonomous vehicle;
    상기 제어하는 단계는,The controlling step,
    상기 센싱된 움직임에 기초하여, 상기 디스플레이 장치가 상기 가상 주행 환경 영상들을 표시하도록 제어하는, 자율 주행 차량의 동작 방법.And controlling the display apparatus to display the virtual driving environment images based on the sensed movement.
  15. 제 14 항에 있어서,The method of claim 14,
    상기 센싱하는 단계는,The sensing step,
    상기 자율 주행 차량의 주행 속도를 센싱하고,Sensing the driving speed of the autonomous vehicle,
    상기 제어하는 단계는,The controlling step,
    상기 센싱된 주행 속도에 기초하여, 상기 디스플레이 장치에서 표시되는 상기 가상 주행 환경 영상들 간의 영상 변화율을 제어하는, 자율 주행 차량의 동작 방법.And controlling an image change rate between the virtual driving environment images displayed on the display device based on the sensed driving speed.
  16. 제 14 항에 있어서,The method of claim 14,
    상기 제어하는 단계는,The controlling step,
    상기 디스플레이 장치가 복수 개인 경우, 상기 센싱된 움직임에 기초하여, 상기 복수개의 디스플레이 장치들 각각에서 표시되는 상기 가상 주행 환경 영상들 간의 영상 변화율을 제어하는, 자율 주행 차량의 동작 방법.And controlling the image change rate between the virtual driving environment images displayed on each of the plurality of display apparatuses based on the sensed movement when there are a plurality of display apparatuses.
  17. 제 11 항에 있어서,The method of claim 11,
    상기 실제 주행 환경에 대한 영상을 촬영하는 단계;를 더 포함하고,Photographing an image of the actual driving environment;
    상기 가상 주행 환경 영상을 획득하는 단계는,Acquiring the virtual driving environment image,
    상기 촬영된 실제 주행 환경에 대한 영상에 기초하여, 상기 가상 주행 환경 영상을 생성하는, 자율 주행 차량의 동작 방법.And generating the virtual driving environment image based on the captured image of the actual driving environment.
  18. 제 17 항에 있어서,The method of claim 17,
    상기 가상 주행 환경 영상을 획득하는 단계는,Acquiring the virtual driving environment image,
    상기 실제 주행 환경에 대한 영상에 나타난 객체의 모습이 반영된 상기 가상 주행 환경 영상을 생성하는, 자율 주행 차량의 동작 방법.And generating the virtual driving environment image reflecting the appearance of the object shown in the image of the actual driving environment.
  19. 제 11 항에 있어서,The method of claim 11,
    상기 가상 주행 환경 영상을 획득하는 단계는,Acquiring the virtual driving environment image,
    복수의 가상 현실들 중에서 상기 자율 주행 차량의 탑승자로부터 선택된 가상 현실에 기초하여, 상기 가상 주행 환경 영상을 생성하는, 자율 주행 차량의 동작 방법.The virtual driving environment image is generated based on a virtual reality selected from a passenger of the autonomous vehicle among a plurality of virtual reality.
  20. 제 11 항에 있어서,The method of claim 11,
    기 설정된 이벤트가 발생하는 지 여부를 판단하는 단계; 및Determining whether a preset event occurs; And
    상기 판단 결과, 상기 이벤트가 발생하는 경우, 상기 자율 주행 차량의 탑승자가 상기 디스플레이 장치를 통해 상기 이벤트에 대응되는 실제 주행 환경을 볼 수 있도록 제어하는 단계;를 더 포함하는, 자율 주행 차량의 동작 방법.And determining that the event occurs, the occupant of the autonomous vehicle viewing the actual driving environment corresponding to the event through the display device. .
  21. 제 11 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of claim 11 on a computer.
  22. 사용자로부터 가상 주행 환경을 선택 받는 입력 장치; 및An input device for selecting a virtual driving environment from a user; And
    상기 선택된 가상 주행 환경을 디스플레이하는 차창을 포함하는, 자율 주행 차량.And a windshield for displaying the selected virtual driving environment.
  23. 제 22 항에 있어서,The method of claim 22,
    상기 차창은 상기 자율 주행 차량의 움직임에 대응되도록 상기 가상 주행 환경을 디스플레이하는, 자율 주행 차량.The vehicle window displays the virtual driving environment to correspond to the movement of the autonomous vehicle.
  24. 제 23 항에 있어서,The method of claim 23,
    상기 움직임은 상기 자율 주행 차량의 속도, 가속도, 감속도, 롤(roll), 피치(pitch), 요(yaw) 및 이들의 변화량 중 적어도 하나를 포함하는, 자율 주행 차량.Wherein the movement comprises at least one of speed, acceleration, deceleration, roll, pitch, yaw and variations of the autonomous vehicle.
  25. 제 22 항에 있어서,The method of claim 22,
    상기 자율 주행 차량의 움직임을 제어하는 제어 장치를 더 포함하고,Further comprising a control device for controlling the movement of the autonomous vehicle,
    상기 차창은 상기 제어 장치의 제어에 대응되도록 상기 가상 주행 환경을 디스플레이하는, 자율 주행 차량.And the vehicle window displays the virtual driving environment to correspond to the control of the control device.
  26. 제 25 항에 있어서,The method of claim 25,
    상기 제어 장치의 제어에 따라 상기 가상 주행 환경을 재생하는 재생 장치를 더 포함하고,Reproducing apparatus for reproducing the virtual driving environment under the control of the control device,
    상기 차창은 상기 재생 장치의 재생 결과를 디스플레이하는, 자율 주행 차량.And the vehicle window displays a result of the regeneration of the reproducing apparatus.
PCT/KR2016/008328 2015-07-30 2016-07-29 Autonomous vehicle and operation method of same WO2017018844A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19196268.7A EP3597468A1 (en) 2015-07-30 2016-07-29 Autonomous vehicle and operation method thereof
US15/744,391 US20180211414A1 (en) 2015-07-30 2016-07-29 Autonomous vehicle and operation method thereof
EP16830877.3A EP3330151A4 (en) 2015-07-30 2016-07-29 Autonomous vehicle and operation method of same

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201562199179P 2015-07-30 2015-07-30
US62/199,179 2015-07-30
KR10-2016-0054107 2016-05-02
KR1020160054107A KR20170015112A (en) 2015-07-30 2016-05-02 Autonomous Vehicle and Operation Method thereof
KR1020160095969A KR102637101B1 (en) 2015-07-30 2016-07-28 Autonomous Vehicle and Operation Method thereof
KR10-2016-0095969 2016-07-28

Publications (1)

Publication Number Publication Date
WO2017018844A1 true WO2017018844A1 (en) 2017-02-02

Family

ID=57885208

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/008328 WO2017018844A1 (en) 2015-07-30 2016-07-29 Autonomous vehicle and operation method of same

Country Status (1)

Country Link
WO (1) WO2017018844A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109781431A (en) * 2018-12-07 2019-05-21 山东省科学院自动化研究所 Automatic Pilot test method and system based on mixed reality
EP3536534A1 (en) 2018-03-07 2019-09-11 Dr. Ing. h.c. F. Porsche AG Autonomous vehicle
CN110803019A (en) * 2018-08-06 2020-02-18 株式会社小糸制作所 Display system for vehicle and vehicle
CN110849386A (en) * 2018-08-21 2020-02-28 三星电子株式会社 Method for providing image to vehicle and electronic device thereof
CN111703301A (en) * 2020-06-18 2020-09-25 北京航迹科技有限公司 Vehicle window content display method and device, electronic equipment and readable storage medium
CN111976742A (en) * 2019-05-22 2020-11-24 丰田自动车株式会社 Information processing device, autonomous vehicle, information processing method, and storage medium
US20210350144A1 (en) * 2020-05-11 2021-11-11 GIST(Gwangju Institute of Science and Technology) Mixed reality-based experience simulator

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120072020A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 Method and apparatus for detecting run and road information of autonomous driving system
US20120256945A1 (en) * 2008-06-17 2012-10-11 Digigage Ltd. System for altering virtual views
KR20140144919A (en) * 2013-06-12 2014-12-22 국민대학교산학협력단 Simulation system for autonomous vehicle for applying obstacle information in virtual reality
US20150100179A1 (en) * 2013-10-03 2015-04-09 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
KR20150083929A (en) * 2012-11-30 2015-07-20 구글 인코포레이티드 Engaging and disengaging for autonomous driving

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120256945A1 (en) * 2008-06-17 2012-10-11 Digigage Ltd. System for altering virtual views
KR20120072020A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 Method and apparatus for detecting run and road information of autonomous driving system
KR20150083929A (en) * 2012-11-30 2015-07-20 구글 인코포레이티드 Engaging and disengaging for autonomous driving
KR20140144919A (en) * 2013-06-12 2014-12-22 국민대학교산학협력단 Simulation system for autonomous vehicle for applying obstacle information in virtual reality
US20150100179A1 (en) * 2013-10-03 2015-04-09 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3536534A1 (en) 2018-03-07 2019-09-11 Dr. Ing. h.c. F. Porsche AG Autonomous vehicle
CN110803019A (en) * 2018-08-06 2020-02-18 株式会社小糸制作所 Display system for vehicle and vehicle
CN110803019B (en) * 2018-08-06 2023-05-05 株式会社小糸制作所 Display system for vehicle and vehicle
CN110849386A (en) * 2018-08-21 2020-02-28 三星电子株式会社 Method for providing image to vehicle and electronic device thereof
CN109781431A (en) * 2018-12-07 2019-05-21 山东省科学院自动化研究所 Automatic Pilot test method and system based on mixed reality
CN109781431B (en) * 2018-12-07 2019-12-10 山东省科学院自动化研究所 automatic driving test method and system based on mixed reality
CN111976742A (en) * 2019-05-22 2020-11-24 丰田自动车株式会社 Information processing device, autonomous vehicle, information processing method, and storage medium
CN111976742B (en) * 2019-05-22 2023-12-01 丰田自动车株式会社 Information processing device, automated driving vehicle, information processing method, and storage medium
US20210350144A1 (en) * 2020-05-11 2021-11-11 GIST(Gwangju Institute of Science and Technology) Mixed reality-based experience simulator
US11734934B2 (en) * 2020-05-11 2023-08-22 GIST(Gwangju Institute of Science and Technology) Mixed reality-based experience simulator
CN111703301A (en) * 2020-06-18 2020-09-25 北京航迹科技有限公司 Vehicle window content display method and device, electronic equipment and readable storage medium

Similar Documents

Publication Publication Date Title
WO2017018844A1 (en) Autonomous vehicle and operation method of same
WO2017217578A1 (en) Vehicle control device and control method therefor
WO2018070717A1 (en) Method for providing a sight securing image to vehicle, electronic apparatus and computer readable recording medium therefor
WO2018092989A1 (en) Display device and operating method thereof
WO2019209057A1 (en) Method of determining position of vehicle and vehicle using the same
WO2017039047A1 (en) Vehicle and control method thereof
WO2017022879A1 (en) Vehicle driving assist and vehicle having same
WO2019135537A1 (en) Electronic device and method for correcting vehicle location on map
WO2019147018A1 (en) Method of receiving map and server apparatus therefor
WO2020235710A1 (en) Autonomous vehicle control method
WO2017003013A1 (en) Apparatus for vehicle driving assistance, operation method therefor, and vehicle comprising same
WO2020159247A1 (en) Image output device
WO2020226210A1 (en) Method for controlling autonomous vehicle
WO2018143589A1 (en) Method and device for outputting lane information
WO2020122281A1 (en) Display device for vehicle
WO2021002519A1 (en) Apparatus for providing advertisement for vehicle, and method for providing advertisement for vehicle
WO2019208965A1 (en) Electronic device and operating method thereof
WO2020145607A1 (en) Electronic apparatus and method of assisting driving of vehicle
WO2017171124A1 (en) External module and vehicle connected thereto
WO2022154299A1 (en) Digital signage platform providing device, operating method thereof, and system including digital signage platform providing device
WO2020189806A1 (en) Vehicle control device
WO2020017677A1 (en) Image output device
WO2020166749A1 (en) Method and system for displaying information by using vehicle
WO2017104888A1 (en) Vehicle driving assistance device and vehicle driving assistance method therefor
WO2019132174A1 (en) System and method for charging mobile device in vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16830877

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15744391

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016830877

Country of ref document: EP