WO2018135745A1 - 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치 - Google Patents
차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치 Download PDFInfo
- Publication number
- WO2018135745A1 WO2018135745A1 PCT/KR2017/013583 KR2017013583W WO2018135745A1 WO 2018135745 A1 WO2018135745 A1 WO 2018135745A1 KR 2017013583 W KR2017013583 W KR 2017013583W WO 2018135745 A1 WO2018135745 A1 WO 2018135745A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- processor
- image
- mesh
- distance
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000004044 response Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 239000002253 acid Substances 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/211—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Definitions
- a method and apparatus for generating an image representing an object around a vehicle is disclosed.
- the driver and passengers in the vehicle may not accurately identify pedestrians, buildings, and other vehicles around the vehicle due to the limitation of the field of view. Accordingly, there is an increasing demand for a technology for providing an image accurately indicating a location and shape of objects around a vehicle through a display device of a vehicle.
- a method and apparatus for generating an image representing an object around a vehicle are provided.
- the present invention provides a computer-readable recording medium having recorded thereon a program for executing the method on a computer.
- the technical problem to be solved is not limited to the above technical problems, and other technical problems may exist.
- the apparatus for generating an image detects at least one object around the vehicle using the result of sensing the surrounding of the vehicle, determines the direction and distance of the detected at least one object, and determines the determined direction and And a processor configured to generate an image representing the vehicle surroundings based on a distance.
- a method of generating an image includes detecting at least one object around the vehicle using a result of sensing the vehicle surroundings; Determining a direction and distance from the vehicle to the detected at least one object; And generating an image representing the surroundings of the vehicle based on the determined direction and distance.
- FIG. 1 is a diagram illustrating an example of displaying an image on a vehicle, according to an exemplary embodiment.
- FIG. 2 is a diagram for describing an example of a distorted 3D image, according to an exemplary embodiment.
- FIG. 3 is a flowchart illustrating an example of a method of generating an image, according to an exemplary embodiment.
- FIG. 4 is a diagram illustrating an example in which a processor detects an object in an image, according to an exemplary embodiment.
- FIG. 5 is a flowchart illustrating an example in which a processor determines a mesh using a direction and a distance of an object.
- FIG. 6 is a diagram illustrating an example in which a processor calculates a distance from a vehicle to an object when the camera is a mono camera according to an embodiment.
- FIG. 7 is a diagram illustrating an example in which a processor calculates a distance from a vehicle to an end point of a lane when the camera is a stereo camera according to an embodiment.
- FIG. 8 is a diagram for describing an example of a processor calculating a distance and an azimuth from a vehicle to an object by using an image, according to an exemplary embodiment.
- FIG. 9 is a diagram illustrating an example in which a processor calculates a distance and an azimuth angle from a vehicle to an object by using a reflected signal.
- FIG. 10 is a flowchart illustrating an example in which a processor determines a mesh, according to an exemplary embodiment.
- FIG. 11 is a diagram illustrating an example in which a processor cuts a portion of a mesh, according to an exemplary embodiment.
- FIG. 12 is a flowchart illustrating another example of determining a mesh by a processor according to an exemplary embodiment.
- FIG. 13 is a diagram illustrating an example in which a processor selects one of a plurality of pre-stored meshes, according to an exemplary embodiment.
- FIG. 14 is a diagram illustrating an example in which a processor selects a mesh mapped to a pixel among a plurality of pre-stored meshes, according to an exemplary embodiment.
- 15 is a flowchart illustrating still another example of determining a mesh by a processor according to an exemplary embodiment.
- 16 is a diagram illustrating an example in which a processor changes an aspect ratio of a portion of a mesh, according to an exemplary embodiment.
- 17 is a diagram illustrating an example in which a processor changes an aspect ratio of a mesh according to a plurality of objects according to an embodiment.
- FIG. 18 is a flowchart illustrating another example of a method of generating an image, according to an exemplary embodiment.
- 19A to 19C are diagrams for describing examples of a display apparatus that outputs an image, according to an exemplary embodiment.
- 20A to 20D are diagrams for describing examples of an image to be displayed, according to an exemplary embodiment.
- 21 and 22 are diagrams illustrating examples of a vehicle driving assistance apparatus including a processor, according to an exemplary embodiment.
- FIG. 1 is a diagram illustrating an example of displaying an image on a vehicle, according to an exemplary embodiment.
- FIG. 1 illustrates an example in which an image 20 of a surrounding of a vehicle is displayed on a display apparatus 10 of a vehicle.
- the display device 10 may be a center information display device, but is not limited thereto.
- the image 20 may be generated as the sensing unit included in the vehicle operates.
- the 3D image 20 may be generated by warping a 2D image on a 3D mesh.
- objects around the vehicle may be distorted in the 3D image 20.
- the shape or size of objects around the vehicle may be distorted in the 3D image 20.
- FIG. 2 is a diagram for describing an example of a distorted 3D image, according to an exemplary embodiment.
- the vehicle 210 is traveling on a road, and a tree 220 and a building 230 are positioned around the vehicle 210.
- the periphery of the vehicle 210 is photographed by at least one camera included in the vehicle 210.
- the generated image may be rendered as the 3D image 240 as warped in the 3D mesh.
- the three-dimensional modeling of the objects 220 and 230 may be performed regardless of the actual position by the structure of the three-dimensional mesh.
- the 3D image 240 may be a bird view image.
- the 3D image 240 when the 3D image 240 is displayed, it may be difficult for the user (eg, the occupant of the vehicle 210) to identify the exact positions and shapes of the objects 220 and 230. In addition, according to the degree of distortion of the 3D image 240, it may be difficult for the user to accurately determine whether the objects 220 and 230 are positioned around the vehicle 210.
- the processor may deform the 3D mesh according to an actual position of an object around a vehicle.
- the processor may select an appropriate 3D mesh from among prestored 3D meshes according to the actual position of the object around the vehicle. Therefore, the shape of the object and the positional relationship between the vehicle and the object may be accurately represented in the 3D image 20.
- the processor detects an object around the vehicle by using the result of photographing the surrounding of the vehicle.
- the processor determines a mesh (eg, a 3D mesh) to be applied to an image including the object by using the position of the detected object.
- the processor generates an image 20 representing the surroundings of the vehicle based on the determined mesh.
- the processor may calculate the distance from the vehicle to the object and the azimuth of the object relative to the vehicle, and determine the mesh based on the calculated distance and azimuth.
- FIG. 3 is a flowchart illustrating an example of a method of generating an image, according to an exemplary embodiment.
- the processor detects at least one object around the vehicle using the result of sensing the surrounding of the vehicle.
- the sensing unit for sensing the surroundings of the vehicle may include an image sensor, a lidar module, a radar module, and the like.
- the image sensor may include a camera, and the camera may mean a mono camera, a stereo camera, an infrared camera, an ultrasonic camera, or a thermal imaging camera, but is not limited thereto.
- the processor may receive a result of photographing the surroundings of the vehicle from the sensing unit included in the vehicle, and detect an object around the vehicle using the received information.
- the object refers to a person, an animal, a plant, or an object located near a lane in which the vehicle is driving.
- the object may include not only people, animals, plants, but also traffic lights, traffic signs, median, telephone poles or other vehicles.
- a camera of a vehicle photographs a surrounding of the vehicle
- the processor may detect an object in an image generated as the camera operates.
- a radar module or a lidar module of a vehicle transmits a signal around the vehicle, and the processor is configured to return a signal from which the transmitted signal is reflected from an object (hereinafter referred to as 'reflection signal').
- the antenna of the radar module may have a multi-array structure or a parabolic structure, but is not limited thereto.
- the processor may determine the location of the object and the type of the object by using the camera of the vehicle and the radar / lidar module of the vehicle together.
- the processor may detect the object by analyzing the reflection signal received by the radar / rider module even if the object is not identified in the image photographed by the camera. Accordingly, the processor may detect objects around the vehicle using the camera and the radar / rider module regardless of the environment in which the vehicle is driven.
- FIG. 4 is a diagram illustrating an example in which a processor detects an object in an image, according to an exemplary embodiment.
- FIG. 4 illustrates an example in which the vehicle 410 travels on a road and a pedestrian 420 passes around the vehicle 410.
- an image 430 including the pedestrian 420 may be generated.
- a still image may be generated as the camera of the vehicle 410 is operated once, or a video may be generated as the camera of the vehicle 410 is operated continuously.
- the processor may analyze the image 430 to separate the object 440 from the image 430.
- the processor may separate the object 440 from the image 430 by constructing a graph of the image 430 and applying a graph cut algorithm to the configured graph.
- the graph cut algorithm cuts the graph by using a threshold value, so that the pixels included in the image 430 are pixels corresponding to the object 440 and pixels not corresponding to the object 440.
- the processor may separate the object using the graph cut algorithm as an example, and the processor may separate the object 440 from the image 430 using various image separation methods.
- the processor may identify the type of the separated object 440. For example, the processor may identify that the object 440 is a person by comparing the shape of the object 440 with information stored in memory.
- step 320 the processor determines a direction and a distance from the vehicle to the detected object.
- the processor may calculate the distance from the vehicle to the object based on the longitudinal resolution of the image.
- the processor may calculate a distance from the camera photographing the image to the identified object.
- the processor may calculate the distance from the camera to the object based on the bottom surface of the object.
- an object at the top is located farther from the camera than an object at the bottom of the image.
- Information about an actual distance corresponding to one pixel of the image may be stored in advance.
- information about a location at which the camera is embedded in the vehicle may also be stored.
- the processor may calculate the distance from the camera to the object based on where the object is located in the image.
- the processor may also calculate the distance from the vehicle to the object based on the distance from the camera to the object.
- the method of calculating the distance from the vehicle to the object may vary depending on the type of camera included in the vehicle.
- the processor calculates the distance from the vehicle to the object will be described later with reference to FIG. 6.
- the camera is a stereo camera
- the processor calculates the distance from the vehicle to the object will be described later with reference to FIG. 7.
- the processor may calculate a distance from the vehicle to the object by using a time of arrival (TOA) of the infrared signal transmitted from the camera.
- TOA time of arrival
- the processor may calculate the distance from the vehicle to the object using the time when the infrared signal is reflected from the object and returned to the camera and the speed of the infrared signal.
- the radar module / rider module of the vehicle transmits radial signals
- the processor may estimate the distance from the vehicle to the object by analyzing a pattern of reflected signals corresponding to the radiation signals. Further, the processor may estimate the azimuth angle of the object based on the direction angle and the Doppler frequency of the reflected signal, and may estimate the moving speed and / or the moving direction assuming that the object is a moving object.
- the processor In operation 330, the processor generates an image representing the vehicle surroundings based on the determined direction and distance.
- the processor determines a mesh to be applied to an image including the object by using the distance from the vehicle to the object and the direction of the object based on the vehicle.
- the processor may generate a mesh corresponding to the object in consideration of the position of the detected object.
- the processor may generate a mesh corresponding to the object by cutting a portion of the pre-stored mesh according to the position of the object.
- the processor may select a mesh corresponding to the object from among a plurality of pre-stored meshes according to the position of the object.
- the processor may generate a mesh corresponding to an object by changing an aspect ratio of a portion of a previously stored mesh according to the position of the object.
- the position of the object may mean a distance relationship between the vehicle and the object.
- the position of the object may mean a distance and / or azimuth to the object based on the sensing unit of the vehicle, or may mean a distance and / or azimuth to the object based on the center point of the vehicle.
- the processor may generate a 3D image by warping the 2D image generated as the camera operates on the determined mesh.
- the example in which the two-dimensional image is warped in the mesh is obvious to those skilled in the art, and thus a detailed description thereof will be omitted.
- FIG. 5 is a flowchart illustrating an example in which a processor determines a mesh using a direction and a distance of an object.
- step 510 the processor calculates the distance from the vehicle to the object.
- the processor may separate the shape of the object from the image photographed by the camera and calculate a distance from the vehicle to the object based on the lowest point of the separated shape.
- the processor may calculate the distance from the vehicle to the object using the arrival time of the reflected signal and the speed of the reflected signal received by the radar module or the rider module.
- the processor calculates an azimuth angle from the vehicle to the object.
- the processor may calculate an azimuth angle of the object with respect to the vehicle based on how far the shape of the object in the image is based on a predetermined line (eg, the center line of the image).
- the processor may calculate an azimuth angle of the object with respect to the vehicle based on the direction in which the reflected signal reaches the radar module or the rider module.
- FIGS. 6 to 9 Examples of calculating a distance and azimuth from the vehicle to the object will be described later with reference to FIGS. 6 to 9. Specifically, referring to FIG. 6, an example in which the processor calculates a distance from a vehicle to an object when the camera is a mono camera will be described. 7, an example in which the processor calculates a distance from a vehicle to an object when the camera is a stereo camera will be described. An example in which the processor calculates the distance and azimuth based on the image will be described with reference to FIG. 8, and the processor calculates the distance and the azimuth based on the reflection signal received by the radar module or the rider module with reference to FIG. 9. Explain the example.
- the processor determines a mesh based on the calculated distance and azimuth.
- the processor may generate a mesh corresponding to the object by cutting a portion of the pre-stored mesh according to the calculated distance and azimuth.
- the processor may select a mesh corresponding to the object from among a plurality of pre-stored meshes according to the calculated distance and azimuth.
- the processor may generate a mesh corresponding to an object by changing an aspect ratio of a portion of a previously stored mesh according to the calculated distance and azimuth. Examples of determining the mesh by the processor will be described later with reference to FIGS. 10 to 17.
- FIG. 6 is a diagram illustrating an example in which a processor calculates a distance from a vehicle to an object when the camera is a mono camera according to an embodiment.
- the processor may calculate a distance from the mono camera P to the objects 620 and 630.
- the information on the position where the mono camera P is embedded in the vehicle 610 may be stored in advance. Accordingly, the processor may calculate the distance from the vehicle 610 to the objects 620 and 630.
- the objects 620 and 630 are illustrated as trees, but the objects 620 and 630 are not limited to trees.
- the processor may calculate a distance from the vehicle 610 to the objects 620 and 630 based on Equation 1 below.
- Equation 1 y means the height in the image (I).
- f means the focal length of the lens of the mono camera (P)
- H means the height from the ground to the mono camera (P).
- Z denotes a distance from the mono camera P to the objects 620 and 630.
- f and H may be preset. Accordingly, the processor finds the position y of the bottom surface (part of the bottom) of the objects 620 and 630 in the image I, and from the position y to the objects 620 and 630 by Equation 1 We can calculate the distance (Z) of.
- FIG. 7 is a diagram illustrating an example in which a processor calculates a distance from a vehicle to an end point of a lane when the camera is a stereo camera according to an embodiment.
- the processor may calculate a distance from the stereo cameras 711 and 712 to the object Q.
- the information on the location where the stereo cameras 711 and 712 are embedded in the vehicle may be stored in advance.
- the processor can calculate the distance from the vehicle to the object Q.
- the object Q is illustrated as a tree for convenience of description, but the object Q is not limited to a tree.
- the stereo cameras 711 and 712 include a left camera 611 and a right camera 712, and an image generated by the left camera 711 is called a left image 721 and a right camera 712.
- the image generated by is called a right image 722.
- the processor may calculate the distance from the vehicle to the object Q based on Equation 2 below.
- Equation 2 Z denotes a distance between the stereo cameras 711 and 712 and the object Q, and B denotes a distance between the left camera 711 and the right camera 712.
- f means the focal length of the lens of the stereo camera (711, 712)
- d means the parallax of the left image 721 and the right image 722.
- f and B may be preset. Therefore, the processor may calculate the distance Z from the vehicle to the object Q based on the parallax d of the left image 721 and the right image 722.
- FIG. 8 is a diagram for describing an example of a processor calculating a distance and an azimuth from a vehicle to an object by using an image, according to an exemplary embodiment.
- the sensor unit 820 means any one of a camera, a radar module, a rider module, or a combination of a camera and a radar module.
- the image 830 illustrated in FIG. 8 refers to an image generated based on information obtained as the sensor unit 820 operates.
- the image 830 includes objects 841, 842, and 843.
- the processor may calculate a distance from the vehicle 810 or the sensor unit 820 to the objects 841, 842, 843 based on the position of the objects 841, 842, 843 in the image 830. have.
- an object 843 close to the sensor unit 820 appears below the image 830, and an object 841 far from the sensor unit 820 appears above the image 830.
- the number of pixels included in the image 830 may be predetermined according to the resolution of the sensor unit 820. Therefore, distances from the sensor unit 820 may be mapped to each of the pixels included in the image 830 in advance.
- the processor may calculate a distance from the sensor unit 820 to the object 841 using the positions of the pixels corresponding to the object 841.
- the processor may separate the shape of the object 841 from the image 830, and select a position of a pixel corresponding to the lowest point of the separated shape.
- the processor may determine a distance (eg, 20 m) previously mapped to the selected pixel, and determine the distance from the sensor unit 820 to the object 841 as the checked distance (eg, 20 m). have.
- the senor 820 may be embedded in the vehicle 810 in a fixed position. Therefore, the positional relationship between the predetermined position (eg, the center point) of the vehicle 810 and the sensor unit 820 may be set in advance. Therefore, the processor may also calculate the distance from the predetermined position of the vehicle 810 to the object 841 using the distance from the sensor unit 820 calculated by analyzing the image 830. .
- the processor separates the shape of each of the other objects 842 and 843 in the image 830 and calculates the distance from the vehicle 810 or the sensor unit 820 to the objects 842 and 843. can do.
- the processor determines an azimuth angle of the objects 841, 842, and 843 based on the vehicle 810 or the sensor unit 820 based on the positions of the objects 841, 842, and 843 in the image 830. Can be calculated.
- the object 841 shown on the centerline 850 of the image 830 is located in front of the sensor unit 820.
- the number of pixels included in the image 830 may be predetermined according to the resolution of the sensor unit 820. Therefore, an azimuth angle based on the sensor unit 820 may be previously mapped to each pixel included in the image 830. In other words, assuming that the azimuth angle of the pixels positioned in the center line 850 is 0 °, the azimuth angle may be larger as the pixel is farther from the center line 850.
- the processor determines that the object 842 has an azimuth of 10 ° to the right of the sensor unit 820. can do.
- the processor separates the shape of the object 842 from the image 830, checks an azimuth (eg, 10 °) previously mapped to pixels located on the centerline 860 of the separated shape, and detects the sensor unit (
- the azimuth angle from 830 to the object 842 may be determined as the identified azimuth angle (eg, 10 °).
- the positional relationship between the vehicle 810 and the sensor unit 820 may be set in advance. Accordingly, the processor may calculate the azimuth angle from the predetermined position of the vehicle 810 to the object 842 by using the azimuth angle from the sensor unit 820 to the object 842 calculated by analyzing the image 830. .
- the processor separates the shape of each of the other objects 841 and 843 in the image 830, and calculates an azimuth angle from the vehicle 810 or the sensor unit 820 to the objects 841 and 843. can do.
- the processor analyzes each of the plurality of images according to the method described above with reference to FIG. 8.
- the movement speed and / or direction of movement of 841, 842, 843 may be estimated.
- FIG. 9 is a diagram illustrating an example in which a processor calculates a distance and an azimuth angle from a vehicle to an object by using a reflected signal.
- FIG. 9 illustrates a vehicle 910 in which a plurality of rider modules 921, 922, 923, and 924 are built.
- the number of rider modules 921, 922, 923, and 924 is illustrated as four, but is not limited thereto.
- the rider modules 921, 922, 923, and 924 of FIG. 9 may be radar modules or other devices capable of transmitting / receiving signals.
- the rider modules 921, 922, 923, 924 each emit radial signals with narrow angles (eg, 2 ° or less), and the processor analyzes the pattern of reflected signals corresponding to the radiation signals. By doing so, the shape of the object 930 can be estimated.
- the processor may estimate the azimuth angle of the object 930 based on the direction angle of the reflected signal and the Doppler frequency, and may estimate the moving speed and / or the moving direction assuming that the object 930 is a moving object.
- the processor also uses the time of arrival (TOA) of the signal originating from the rider modules 921, 922, 923, 924 to provide a distance from the rider modules 921, 922, 923, 924 to the object 930. Can be calculated.
- the processor uses the time at which the signal is reflected at the object 930 to return to the rider modules 921, 922, 923, 924 and the speed of the signal from the rider modules 921, 922, 923, 924.
- the distance to the object 930 may be calculated.
- a positional relationship between the vehicle 910 and the rider modules 921, 922, 923, and 924 may be preset. Accordingly, the processor may calculate a distance and azimuth angle from the predetermined position of the vehicle 910 (eg, the center point of the vehicle 910) to the object 930.
- FIG. 10 is a flowchart illustrating an example in which a processor determines a mesh, according to an exemplary embodiment.
- step 1010 the processor identifies a positional relationship between the vehicle and the object.
- the processor may identify the distance from the vehicle to the object and the azimuth of the object relative to the vehicle. Examples in which the processor calculates the distance from the vehicle to the object and the azimuth of the object based on the vehicle are as described above with reference to FIGS. 5 to 9.
- step 1020 the processor cuts a portion of the pre-stored mesh according to the positional relationship.
- the processor may assume that the vehicle is located at the center of the base mesh and determine a point at which the object is located in the base mesh.
- the processor may generate a new mesh by cutting the base mesh based on the position of the object in the base mesh.
- the processor cuts a portion of the base mesh will be described with reference to FIG. 11.
- FIG. 11 is a diagram illustrating an example in which a processor cuts a portion of a mesh, according to an exemplary embodiment.
- FIG. 11 illustrates an example of a pre-stored mesh 1110 and a location where an object 1120 is positioned in the mesh 1110.
- the 3D image generated based on the mesh 1110 may be an image representing a surrounding environment around the vehicle.
- the object 1120 may be distorted in the 3D image.
- the 3D image generated based on the mesh 1110 only objects located along the outline of the mesh 1110 may be modeled as a vertical plane. Therefore, in the case of the object 1120 located inside the mesh 1110, the height of the object 1120 (eg, the height of the person when the object 1120 is a person) is not properly represented in the 3D image. You may not.
- the processor may generate a new mesh 1130 by cutting the mesh 1110 based on the position of the object 1120 in the mesh 1110. In detail, the processor may delete a portion 1140 of the mesh 1110 based on the point where the object 1120 is located. Therefore, since the object 1120 may be located at the outline of the mesh 1130, the height of the object 1120 may be appropriately represented in the 3D image generated based on the mesh 1130.
- the processor may store the newly generated mesh 1130 in a memory.
- FIG. 12 is a flowchart illustrating another example of determining a mesh by a processor according to an exemplary embodiment.
- step 1210 the processor identifies a positional relationship between the vehicle and the object.
- the processor may identify the distance from the vehicle to the object and the azimuth of the object relative to the vehicle. Examples in which the processor calculates the distance from the vehicle to the object and the azimuth of the object based on the vehicle are as described above with reference to FIGS. 5 to 9.
- the processor selects one of a plurality of pre-stored meshes according to the positional relationship.
- the memory may store various meshes whose base mesh is deformed according to the position of the object.
- the processor may select and read a mesh suitable for the object from among the meshes stored in the memory according to the distance from the vehicle to the object and the azimuth angle of the object based on the vehicle.
- the processor selects one of a plurality of pre-stored meshes will be described with reference to FIGS. 13 to 14.
- FIG. 13 is a diagram illustrating an example in which a processor selects one of a plurality of pre-stored meshes, according to an exemplary embodiment.
- FIG. 13 illustrates an example in which an object 1320 (eg, a person) is positioned around the vehicle 1310 and the vehicle 1310.
- an object 1320 eg, a person
- the processor identifies a positional relationship between the vehicle 1310 and the object 1320.
- the processor determines a distance from the vehicle 1310 to the object 1320 and in which direction the object 1320 is located with respect to the vehicle 1310.
- the processor may identify the positional relationship between the vehicle 1310 and the object 1320 through an image photographed by a camera or a rider / radar module as described above with reference to FIGS. 3 to 9.
- a plurality of meshes 1331, 1332, and 1333 may be stored in a memory of the vehicle 1310.
- meshes 1331, 1332, and 1333 in which a portion of the base mesh is cut may be stored according to the location of the objects 1341, 1342, and 1343 and / or the type of the objects 1342, 1342, and 1343. It may be.
- the processor may select a mesh 1333 suitable for representing the object 1320 among the pre-stored meshes 1331, 1332, and 1333 according to the positional relationship between the vehicle 1310 and the object 1320. Accordingly, the processor may acquire a mesh 1333 suitable for representing the object 1320 without performing an operation process required to generate a new mesh.
- the processor may detect an object (or image) from among the pre-stored meshes 1331, 1332, and 1333.
- a mesh may also be selected that corresponds to the location of the pixels representing 1320.
- FIG. 14 is a diagram illustrating an example in which a processor selects a mesh mapped to a pixel among a plurality of pre-stored meshes, according to an exemplary embodiment.
- FIG. 14 illustrates an example of an image 1410 in which a vehicle 1420 is located at the center and an object 1430 is located at the periphery of the vehicle 1420.
- the processor When a plurality of cameras are built in the vehicle 1420 and the positions of the cameras are different from each other, the processor generates an image 1410 around the vehicle 1420 by combining images generated as each of the cameras operates. can do. In addition, the processor may divide the image 1410 into a plurality of zones and map each zone and a pre-stored mesh. Here, regions may be generated by grouping pixels included in image 1410.
- the processor may map the pre-stored mesh according to the type of the object 1430. For example, the mesh 1443 when the object 1430 represented by the 'zone 10' in the image 1410 is a human and the mesh 1444 when the object 1430 represented by the 'zone 10' is the vehicle. You can map differently.
- the processor checks the area where the object 1430 is located and the type of the object 1430 in the image 1410.
- the processor may select a mesh 1443 suitable to represent the object 1430 from among the pre-stored meshes 1441, 1442, 1443, and 1444. Accordingly, the processor may acquire a mesh 1443 suitable for representing the object 1430 without undergoing an operation process required to generate a new mesh.
- 15 is a flowchart illustrating still another example of determining a mesh by a processor according to an exemplary embodiment.
- step 1510 the processor identifies a positional relationship between the vehicle and the object.
- the processor may identify the distance from the vehicle to the object and the azimuth of the object relative to the vehicle. Examples in which the processor calculates the distance from the vehicle to the object and the azimuth of the object based on the vehicle are as described above with reference to FIGS. 5 to 9.
- the processor changes the aspect ratio of the portion of the pre-stored mesh according to the positional relationship.
- the processor may assume that the vehicle is located at the center of the base mesh and determine a point at which the object is located in the base mesh.
- the processor may generate a new mesh by changing the aspect ratio of the base mesh so that the outline of the base mesh is positioned at the point where the object is located in the base mesh.
- the processor cuts a portion of the mesh will be described with reference to FIGS. 16 to 17.
- 16 is a diagram illustrating an example in which a processor changes an aspect ratio of a portion of a mesh, according to an exemplary embodiment.
- FIG. 16 illustrates an example of a pre-stored mesh 1610 and a location where an object 1620 is located in the mesh 1610. It is also assumed that the vehicle is located at the center of the mesh 1610. Therefore, the 3D image generated based on the mesh 1610 may be an image representing a surrounding environment around the vehicle.
- the mesh 1610 may have a shape of a cylinder, a cone, or a combination of a cylinder and a cone. In other words, looking at the mesh 1610 from above may be a circle with a radius.
- the processor may generate a new mesh 1630 by changing the aspect ratio of a portion of the mesh 1610 based on the position of the object 1620 in the mesh 1610. For example, the processor may change the aspect ratio of the portion of the mesh 1610 that corresponds to the location of the object 1620.
- the aspect ratio means the ratio of the horizontal length to the vertical length of the surface 1640 of the mesh 1610.
- surface 1640 may exhibit the shape of a circle or ellipse. If the surface 1640 is assumed to be a circle, the aspect ratio of the mesh 1610 is 1: 1. On the other hand, assuming that the surface 1640 is an ellipse, the transverse radius is a and the longitudinal radius is r, the aspect ratio of the mesh 1610 is a: r.
- the processor may change the aspect ratio of the mesh 1610 such that the object 1620 is located at an outline of the mesh 1610. For example, when the mesh 1630 is viewed from above, the horizontal radius of the portion corresponding to the position of the object 1620 may be reduced from a to b. Therefore, since the object 1620 may be located at the outline of the mesh 1630, the height of the object 1620 may be appropriately represented in the 3D image generated based on the mesh 1630.
- FIG. 16 illustrates an example in which the processor changes only the horizontal radius a of the mesh 1610, but the processor changes the vertical radius of the mesh 1610 according to the position of the object 1620. (r) may be changed, or both the horizontal radius a and the vertical radius r may be changed.
- the processor may store the newly created mesh 1630 in a memory.
- the processor may change the aspect ratio of the pre-stored mesh 1610 based on the location of each object.
- the processor changes the aspect ratio of the mesh based on the position of each of the plurality of objects will be described with reference to FIG. 17.
- 17 is a diagram illustrating an example in which a processor changes an aspect ratio of a mesh according to a plurality of objects according to an embodiment.
- the mesh 1710 shows an example of the mesh 1710 viewed from above.
- the mesh 1710 may have a shape of a cylinder, a cone, or a combination of a cylinder and a cone. Accordingly, the mesh 1710 may be a circle when viewed from above.
- the vehicle 1720 is located at the center of the mesh 1710.
- the processor may change the aspect ratio of the mesh 1710 as described above with reference to FIG. 16. Meanwhile, when another object 1740 is positioned around the vehicle 1720, the processor may additionally change the aspect ratio of the mesh 1710 such that the object 1740 is positioned at an outline of the mesh 1710. Therefore, even if the plurality of objects 1730 and 1740 are positioned around the vehicle 1720, the processor may generate the mesh 1750 in which the objects 1730 and 1740 are not distorted.
- the processor may store the newly created mesh 1750 in a memory.
- FIG. 18 is a flowchart illustrating another example of a method of generating an image, according to an exemplary embodiment.
- a method of generating an image includes steps processed in time series in the processor described above with reference to FIGS. 1 to 17. Therefore, even if omitted below, the above description of the processor described above with reference to FIGS. 1 through 17 may be applied to the method of generating the image of FIG. 18.
- Steps 1810 to 1830 of FIG. 18 are the same as steps 310 to 330 of FIG. 3. Therefore, hereinafter, detailed descriptions of the steps 1810 to 1830 will be omitted.
- the processor displays the generated image on the vehicle.
- the processor may display an image in which at least one of vehicles and objects represented in the image is excluded.
- the processor may display a bird view image or a 3D image as the user input is received. An example of the image displayed on the vehicle will be described later with reference to FIGS. 20A to 20C.
- the processor may output the generated image (eg, a 3D image) to at least one of a head up display, a mirror display, and a central information display included in the vehicle.
- a display apparatus in which a processor outputs an image will be described with reference to FIGS. 19A to 19C.
- 19A to 19C are diagrams for describing examples of a display apparatus that outputs an image, according to an exemplary embodiment.
- the processor may display a 3D image 1910 on a vehicle.
- the processor may display the 3D image 1910 on the window of the vehicle through the head-up display device.
- the processor may display the 3D image 1920 in a side mirror of the vehicle through the mirror display device.
- the processor may display the 3D image 1930 on the screen of the central information display apparatus of the vehicle (or a display apparatus connected to the vehicle driving assistance apparatus by wire or wirelessly).
- 20A to 20D are diagrams for describing examples of an image to be displayed, according to an exemplary embodiment.
- the processor may change an image displayed on the display device 2100 according to a user input.
- the display apparatus 2100 may be the vehicle driving assistance apparatus 2000 illustrated in FIGS. 21 and 22.
- an indicator eg, an icon
- the processor may change an image displayed on the display device 2100.
- the processor may display 3D images 2210 and 2230 according to a user input.
- the processor may display the 3D image 2210 in which the vehicle and the objects are output or the 3D image 2230 in which only the objects are output.
- the processor may display bird view images 2220 and 2240 according to a user input.
- the processor may display a bird view image 2220 in which vehicles and objects are output, or a bird view image 2240 in which only objects are output.
- 21 and 22 are diagrams illustrating examples of a vehicle driving assistance apparatus including a processor, according to an exemplary embodiment.
- the vehicle driving assistance apparatus 2000 includes a processor 2030, a memory 2070, and a communication unit 2050.
- the vehicle driving assistance apparatus 2000 may be implemented by more components than those illustrated in FIG. 20, and the vehicle driving assistance apparatus 2000 may be implemented by fewer components than those illustrated in FIG. 20. May be
- the vehicle driving assistance apparatus 2000 may include a user input unit 2010, an output unit 2020, and a sensing unit in addition to the processor 2030, the memory 2070, and the communication unit 2050. 2040 and the driver 2060 may be further included.
- the user input unit 2010 refers to means for inputting data for the user to control the device 2000.
- the user input unit 2010 includes a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive layer type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
- the user input unit 2010 may request a response message for a user's voice input and receive a user input for executing an operation related to the response message.
- the output unit 2020 may output an audio signal, a video signal, or a vibration signal.
- the output unit 2020 may include at least one of the display unit 2021, the sound output unit 2021, and the vibration motor 2023, but is not limited thereto.
- the display unit 2021 displays and outputs information processed by the apparatus 2000.
- the display 2021 may display a user interface for requesting an answer message to a user's voice input and executing an operation related to the answer message.
- the display unit 2021 may display a 3D image representing the surroundings of the vehicle.
- the sound output unit 2021 outputs audio data received from the communication unit 2050 or stored in the memory 2070. In addition, the sound output unit 2021 outputs a sound signal related to a function (for example, a call signal reception sound, a message reception sound, and a notification sound) performed in the device 2000.
- a function for example, a call signal reception sound, a message reception sound, and a notification sound
- the processor 2030 typically controls the overall operation of the device 2000.
- the processor 2030 executes programs stored in the memory 2070, and thus, the processor 2030 may perform overall operations on the user input unit 2010, the output unit 2020, the sensing unit 2040, the communication unit 2050, the driver 2060, and the like. Can be controlled by Also, the processor 2030 may perform the functions described above with reference to FIGS. 1 through 19 by executing programs stored in the memory 2070.
- the processor 2030 may be a micro controller unit (MCU).
- the processor 2030 may perform a function of a cognitive processor.
- the processor 2030 may detect at least one object around the vehicle using a result of photographing the surrounding of the vehicle.
- the processor 2030 may determine a mesh to be applied to the image including the object by using the detected position information of the object.
- the processor 2030 may generate an image (eg, a 3D image) representing the surroundings of the vehicle based on the determined mesh.
- the processor 2030 may calculate the azimuth of the object based on the distance from the vehicle to the object and the vehicle.
- the processor 2030 may cut a portion of the pre-stored mesh according to the position of the object. In addition, the processor 2030 may select any one of a plurality of meshes previously stored in the memory 2070 according to the position of the object. In addition, the processor 2030 may change the aspect ratio of a portion of the pre-stored mesh according to the position of the object.
- the processor 2030 may display an image (eg, a 3D image) representing the surroundings of the vehicle through the display unit 2021.
- an image eg, a 3D image
- the sensing unit 2040 may detect a state of the device 2000 and transmit the detected information to the processor 2030. In addition, the sensing unit 2040 may be used to acquire or generate context information indicating a surrounding situation (eg, presence or absence of an object) of a user or a vehicle.
- a surrounding situation eg, presence or absence of an object
- the sensing unit 2040 includes a GPS (Global Positioning System) module 2041, an IMU (Inertial Measurement Unit) 2042, a radar module 2043, a rider module 2044, an image sensor 2045, and an environmental sensor 2046. It may include, but is not limited to, at least one of a proximity sensor 2047, an RGB sensor 2048, and a motion sensor 2049. Since the functions of the components included in the sensing unit 2040 may be intuitively inferred from the names by those skilled in the art, a detailed description thereof will be omitted.
- GPS Global Positioning System
- IMU Inertial Measurement Unit
- IMU 2042 may be used to detect changes in position and orientation of the vehicle based on inertial acceleration.
- IMU 2042 may include accelerometers and gyroscopes.
- the radar module 2043 may be used to detect objects in the surrounding environment of the vehicle using a wireless signal. In addition, the radar module 2043 may detect the speed and / or direction of the objects.
- the rider module 2044 may be used to detect objects in the surrounding environment of a vehicle using a laser.
- the rider module 2044 may include a laser light source and / or laser scanner configured to emit a laser, and a detector configured to detect reflection of the laser.
- the rider module 2044 may be configured to operate in a coherent (eg, using hetirodyne detection) or noncoherent detection mode.
- the image sensor 2045 may include a camera used to generate images representing the inside and the outside of the vehicle.
- the camera may mean a mono camera, a stereo camera, an infrared camera, or a thermal imaging camera, but is not limited thereto.
- the image sensor 2045 may include a plurality of cameras, and the plurality of cameras may be disposed at a plurality of positions inside and outside the vehicle.
- the environmental sensor 2046 may be used to detect an external environment of a vehicle including weather.
- the environmental sensor 2046 may include a temperature / humidity sensor 20461, an infrared sensor 20462, and an air pressure sensor 20463.
- the proximity sensor 2047 may be used to detect an object approaching the vehicle.
- the motion sensor 2049 may be used to sense the movement of the vehicle.
- the motion sensor 2049 may include a geomagnetic sensor 20491, an acceleration sensor 20492, and a gyroscope sensor 20493.
- the communication unit 2050 may include one or more components that allow the device 2000 to communicate with another device, an external device, or an external server of the vehicle.
- the external device may be a computing device or a sensing device, but is not limited thereto.
- the communication unit 2050 may include at least one of a short range communication unit 2051, a mobile communication unit 2052, and a broadcast receiving unit 2053, but is not limited thereto.
- the short-range wireless communication unit 2051 includes a Bluetooth communication unit, a Bluetooth low energy (BLE) communication unit, a near field communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an infrared ray ( IrDA (Infrared Data Association) communication unit, WFD (Wi-Fi Direct) communication unit, UWB (ultra wideband) communication unit and the like, but may not be limited thereto.
- the mobile communication unit 2052 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
- the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
- the communication unit 2050 may transmit / receive necessary information for requesting a response message to a voice input of a user and performing an operation related to the response message with an external device and an external server.
- the driver 2060 may include components used for driving (driving) a vehicle and operating devices in the vehicle.
- the driving unit 2060 may include at least one of a power supply unit 2061, a driving unit 2062, a driving unit 2063, and a peripheral unit 2064, but is not limited thereto.
- the power supply 2061 may be configured to provide power to some or all of the components of the vehicle.
- power supply 2061 may include a rechargeable lithium ion or lead-acid battery.
- Propulsion 2062 may include an engine / motor, an energy source, a transmission and a wheel / tire.
- the engine / motor can be any combination between an internal combustion engine, an electric motor, a steam engine, and a stirling engine.
- the engine / motor can be a gasoline engine and an electric motor.
- the peripheral unit 2064 may include navigation, lights, turn signals, wipers, internal lights, heaters, and air conditioners.
- the navigation may be a system configured to determine a travel route for the vehicle.
- the navigation may be configured to dynamically update the travel route while the vehicle is driving.
- the navigation may use data collected by the GPS module 2041 to determine the route of travel for the vehicle.
- the memory 2070 may store a program for processing and controlling the processor 2030, and may store data transmitted to or received from an external device or an external server.
- the memory 2070 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), RAM Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic Disk It may include at least one type of storage medium of the optical disk.
- RAM Random Access Memory
- SRAM Static Random Access Memory
- ROM Read-Only Memory
- EEPROM Electrically Erasable Programmable Read-Only Memory
- PROM Programmable Read-Only Memory
- Magnetic Memory Magnetic Disk It may include at least one type of storage medium of the optical disk.
- Programs stored in the memory 2070 may be classified into a plurality of modules according to their functions.
- the memory 2070 may be one of the UI module 2071, the touch screen module 2082, and the notification module 2073. It may include at least one, but is not limited thereto.
- the UI module 2071 may provide a specialized UI, GUI, or the like that is linked to the device 2000 for each application.
- the touch screen module 2082 may detect a touch gesture on a user's touch screen and transmit information about the touch gesture to the processor 2030.
- the touch screen module 2072 may recognize and analyze a touch code.
- the touch screen module 2082 may be configured as separate hardware including a controller.
- the processor may deform the three-dimensional mesh according to the actual position of the object around the vehicle.
- the processor may select an appropriate 3D mesh from among prestored 3D meshes according to the actual position of the object around the vehicle. Therefore, the shape of the object and the positional relationship between the vehicle and the object may be accurately represented in the 3D image displayed on the vehicle.
- the above-described method can be written as a program that can be executed in a computer, it can be implemented in a general-purpose digital computer to operate the program using a computer-readable recording medium.
- the structure of the data used in the above-described method can be recorded on the computer-readable recording medium through various means.
- the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, ROM, RAM, USB, floppy disk, hard disk, etc.), an optical reading medium (eg, CD-ROM, DVD, etc.). do.
- the above-described method may be performed by executing instructions included in at least one of the programs maintained on the computer-readable recording medium.
- the at least one computer may perform a function corresponding to the command.
- the instructions may include high-level language code that can be executed by a computer using an interpreter as well as machine code such as produced by a compiler.
- one example of a computer may be a processor, and one example of a recording medium may be a memory.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
일 측면에 따른 영상을 생성하는 장치는 차량 주변을 센싱한 결과를 이용하여 상기 차량 주변의 적어도 하나의 객체를 검출하고, 상기 검출된 적어도 하나의 객체의 방향 및 거리를 결정하고, 상기 결정된 방향 및 거리에 기초하여, 상기 차량 주변을 나타내는 영상을 생성하는 프로세서를 포함한다. 따라서, 장치는 차량 주변을 나타내는 영상인 3차원 영상에 객체의 형상 및 차량과 객체 사이의 위치 관계가 정확하게 표현되도록 할 수 있다.
Description
차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치에 관한다.
차량(vehicle)에 적용되는 기술들이 발전함에 따라, 차량의 창(window) 등에 차량의 운행과 관련된 정보를 디스플레이하는 다양한 방법들이 개발되고 있다.
한편, 차량에 탑승한 운전자 및 동승자는 시야의 한계로 인하여 차량 주변의 보행자, 건물, 다른 차량 등을 정확하게 식별하지 못할 수도 있다. 이에 따라, 차량 주변의 객체들의 위치 및 형상을 정확하게 나타내는 영상을 차량의 디스플레이 장치를 통해 제공하는 기술에 대한 수요가 증가하고 있다.
차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치를 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측면에 따른 영상을 생성하는 장치는 차량 주변을 센싱한 결과를 이용하여 상기 차량 주변의 적어도 하나의 객체를 검출하고, 상기 검출된 적어도 하나의 객체의 방향 및 거리를 결정하고, 상기 결정된 방향 및 거리에 기초하여, 상기 차량 주변을 나타내는 영상을 생성하는 프로세서;를 포함한다.
다른 측면에 따른 영상을 생성하는 방법은 차량 주변을 센싱한 결과를 이용하여, 상기 차량 주변의 적어도 하나의 객체를 검출하는 단계; 상기 차량으로부터 상기 검출된 적어도 하나의 객체까지의 방향 및 거리를 결정하는 단계; 및 상기 결정된 방향 및 거리에 기초하여, 상기 차량 주변을 나타내는 영상을 생성하는 단계;를 포함한다.
도 1은 일 실시예에 따른 차량에 영상을 디스플레이하는 일 예를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 왜곡된 3차원 영상의 일 예를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 영상을 생성하는 방법의 일 예를 나타내는 흐름도이다.
도 4는 일 실시예에 따른 프로세서가 영상에서 객체를 검출하는 일 예를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 프로세서가 객체의 방향 및 거리를 이용하여 메쉬를 결정하는 일 예를 나타내는 흐름도이다.
도 6은 일 실시예에 따른 카메라가 모노 카메라인 경우에 프로세서가 차량으로부터 객체까지의 거리를 연산하는 일 예를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 카메라가 스테레오 카메라인 경우에 프로세서가 차량으로부터 차선의 끝점까지의 거리를 연산하는 일 예를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 프로세서가 영상을 이용하여 차량으로부터 객체까지의 거리 및 방위각을 연산하는 일 예를 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 프로세서가 반사 신호를 이용하여 차량으로부터 객체까지의 거리 및 방위각을 연산하는 일 예를 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 프로세서가 메쉬를 결정하는 일 예를 나타내는 흐름도이다.
도 11은 일 실시예에 따른 프로세서가 메쉬의 일 부분을 절단하는 일 예를 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 프로세서가 메쉬를 결정하는 다른 예를 나타내는 흐름도이다.
도 13은 일 실시예에 따른 프로세서가 기 저장된 복수의 메쉬들 중에서 어느 하나를 선택하는 일 예를 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 프로세서가 기 저장된 복수의 메쉬들 중에서 픽셀에 매핑된 메쉬를 선택하는 일 예를 설명하기 위한 도면이다.
도 15는 일 실시예에 따른 프로세서가 메쉬를 결정하는 또 다른 예를 나타내는 흐름도이다.
도 16은 일 실시예에 따른 프로세서가 메쉬의 일 부분의 종횡비를 변경하는 일 예를 설명하기 위한 도면이다.
도 17은 일 실시예에 따른 프로세서가 복수의 객체들에 따라 메쉬의 종횡비를 변경하는 일 예를 설명하기 위한 도면이다.
도 18은 일 실시예에 따른 영상을 생성하는 방법의 다른 예를 나타내는 흐름도이다.
도 19a 내지 도 19c는 일 실시예에 따른 영상이 출력되는 디스플레이 장치의 예들을 설명하기 위한 도면들이다.
도 20a 내지 도 20d는 일 실시예에 따라 디스플레이되는 영상의 예들을 설명하기 위한 도면들이다.
도 21 및 도 22는 일 실시예에 따른 프로세서를 포함하는 차량 주행 보조 장치의 예들을 나타내는 구성도들이다.
실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 일 실시예에 따른 차량에 영상을 디스플레이하는 일 예를 설명하기 위한 도면이다.
도 1에는 차량의 디스플레이 장치(10)에 차량의 주변을 촬영한 영상(20)이 디스플레이된 예가 도시되어 있다. 예를 들어, 디스플레이 장치(10)는 중앙 정보 디스플레이(Center Information Display) 장치 일 수 있으나, 이에 한정되지 않는다. 영상(20)은 차량에 포함된 센싱부가 동작함에 따라 생성될 수 있다.
디스플레이 장치(10)에 디스플레이되는 영상(20)이 3차원 영상인 경우, 3차원 영상(20)은 3차원 메쉬(mesh)에 2차원 영상이 와핑(warping)됨으로써 생성될 수 있다. 이때, 3차원 메쉬의 구조에 따라, 3차원 영상(20)에는 차량 주변의 객체들이 왜곡되어 표현될 수 있다. 예를 들어, 3차원 영상(20)에는 차량 주변의 객체들의 모양 또는 크기 등이 왜곡되어 나타날 수 있다.
이하, 도 2를 참조하여 3차원 영상(20)에서 차량 주변의 객체들이 왜곡되어 표현된 일 예를 설명한다.
도 2는 일 실시예에 따른 왜곡된 3차원 영상의 일 예를 설명하기 위한 도면이다.
도 2를 참조하면, 차량(210)은 도로 위를 주행하고 있고, 차량(210)의 주변에는 나무(220) 및 건물(230)이 위치한다고 가정한다. 또한, 차량(210)에 포함된 적어도 하나의 카메라에 의하여 차량(210)의 주변이 촬영된다고 가정한다.
카메라가 동작함에 따라 생성된 영상은 3차원 메쉬에 와핑(warping)됨에 따라 3차원 영상(240)으로 렌더링될 수 있다. 이때, 3차원 메쉬의 구조에 의하여, 객체들(220, 230)은 실제 위치와는 관계 없이 3차원 모델링이 수행될 수 있다. 예를 들어, 차량(210)과 가까운 영역은 수평면으로 모델링되고, 차량(210)으로부터 먼 영역은 수직면으로 모델링됨에 따라 3차원 영상(240)은 버드 뷰(bird view) 영상이 될 수 있다.
따라서, 3차원 영상(240)이 디스플레이되는 경우, 사용자(예를 들어, 차량(210)의 탑승자)는 객체들(220, 230)의 정확한 위치 및 형상을 식별하기 어려울 수 있다. 또한, 3차원 영상(240)의 왜곡 정도에 따라, 사용자는 차량(210)의 주변에 객체들(220, 230)이 위치하는지 여부를 정확하게 판단하기 어려울 수 있다.
다시 도 1을 참조하면, 일 실시예에 따른 프로세서는 차량 주변의 객체의 실제 위치에 따라 3차원 메쉬를 변형할 수 있다. 또는, 프로세서는 차량 주변의 객체의 실제 위치에 따라 기 저장된 3차원 메쉬들 중에서 적절한 3차원 메쉬를 선택할 수 있다. 따라서, 3차원 영상(20)에는 객체의 형상 및 차량과 객체 사이의 위치 관계가 정확하게 표현될 수 있다.
구체적으로, 프로세서는 차량 주변을 촬영한 결과를 이용하여 차량 주변의 객체를 검출한다. 그리고, 프로세서는 검출된 객체의 위치를 이용하여 객체를 포함하는 영상에 적용될 메쉬(예를 들어, 3차원 메쉬)를 결정한다. 그리고, 프로세서는 결정된 메쉬에 기초하여 차량 주변을 나타내는 영상(20)을 생성한다. 예를 들어, 프로세서는 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 연산할 수 있고, 연산된 거리 및 방위각에 기초하여 메쉬를 결정할 수 있다.
이하, 도 3 내지 도 17을 참조하여, 프로세서가 차량 주변을 나타내는 영상을 생성하는 예들을 설명한다.
도 3은 일 실시예에 따른 영상을 생성하는 방법의 일 예를 나타내는 흐름도이다.
310 단계에서, 프로세서는 차량 주변을 센싱한 결과를 이용하여 차량 주변의 적어도 하나의 객체를 검출한다. 차량 주변을 센싱하는 센싱부는 이미지 센서, 라이다 모듈, 레이더 모듈 등을 포함할 수 있다. 이미지 센서는 카메라를 포함할 수 있고, 카메라는 모노(mono) 카메라, 스테레오(stereo) 카메라, 적외선 카메라, 초음파 카메라 또는 열화상 카메라를 의미할 수 있으나, 이에 한정되지 않는다.
예를 들어, 프로세서는 차량에 포함된 센싱부로부터 차량 주변을 촬영한 결과를 수신하고, 수신된 정보를 이용하여 차량 주변의 객체를 검출할 수 있다. 여기에서, 객체는 차량이 주행 중인 차로의 주변에 위치하는 사람, 동물, 식물 또는 사물을 의미한다. 예를 들어, 객체는 사람, 동물, 식물뿐 만 아니라 신호등, 교통 표지판, 중앙 분리대, 전신주 또는 다른 차량 등이 포함될 수 있다.
일 예로서, 차량의 카메라가 차량 주변을 촬영하고, 프로세서는 카메라가 동작함에 따라 생성된 영상에서 객체를 검출할 수 있다.
다른 예로서, 차량의 레이더(radar) 모듈 또는 라이다(lidar) 모듈이 차량 주변에 신호를 발신하고, 프로세서는 발신된 신호가 객체에서 반사되어 돌아온 신호(이하, '반사 신호'라고 함)를 분석하여 객체의 위치 및 객체의 종류를 판별할 수 있다. 예를 들어, 레이더 모듈의 안테나는 멀티 어레이(multi-array) 구조 또는 파라볼릭(parabolic) 구조를 갖을 수 있으나, 이에 한정되지 않는다.
또 다른 예로서, 프로세서는 차량의 카메라 및 차량의 레이더/라이다 모듈을 함께 이용하여 객체의 위치 및 객체의 종류를 판별할 수도 있다.
예를 들어, 자동차가 주행 중인 상황(예를 들어, 안개가 낀 날씨)에 의하여, 차량과 인접한 위치의 객체는 카메라가 촬영한 영상에서 식별 가능하나, 차량과 멀리 떨어진 위치의 객체는 식별이 어려울 수 있다. 다만, 프로세서는 카메라에 의하여 촬영된 영상에서 식별하지 못한 객체라고 하더라도, 레이더/라이더 모듈에 의하여 수신된 반사 신호를 분석하여 객체를 검출할 수 있다. 따라서, 프로세서는 카메라 및 레이더/라이더 모듈을 이용하여, 차량이 주행 중인 환경에 구애 받지 않고 차량 주변의 객체들을 검출할 수 있다.
이하, 도 4를 참조하여, 프로세서가 영상에서 객체를 검출하는 일 예를 설명한다.
도 4는 일 실시예에 따른 프로세서가 영상에서 객체를 검출하는 일 예를 설명하기 위한 도면이다.
도 4에는 차량(410)이 도로 위를 주행하고, 차량(410)의 주변에 보행자(420)가 지나가고 있는 일 예가 도시되어 있다. 차량(410)에 포함된 카메라가 차량(410)의 주변을 촬영함에 따라, 보행자(420)가 포함된 영상(430)이 생성될 수 있다. 이때, 차량(410)의 카메라가 1회 동작함에 따라 정지 영상이 생성될 수도 있고, 차량(410)의 카메라가 연속적으로 동작함에 따라 동영상이 생성될 수도 있다.
프로세서는 영상(430)을 분석하여, 영상(430)에서 객체(440)를 분리할 수 있다. 예를 들어, 프로세서는 영상(430)의 그래프를 구성하고, 구성된 그래프에 그래프 컷 알고리즘(graph cut algorithm)을 적용함으로써, 영상(430)에서 객체(440)를 분리할 수 있다. 여기에서, 그래프 컷 알고리즘은 역치 값을 이용하여 그래프를 구분함(cut)으로써, 영상(430)에 포함된 픽셀들을 객체(440)에 해당되는 픽셀들과 객체(440)에 해당되지 않은 픽셀들로 분리하는 알고리즘을 의미한다. 다만, 프로세서가 그래프 컷 알고리즘을 이용하여 객체를 분리하는 것은 일 예에 불과하고, 프로세서는 다양한 영상 분리 방법들을 이용하여 영상(430)에서 객체(440)를 분리할 수 있다.
그리고, 프로세서는 분리된 객체(440)의 종류를 식별할 수 있다. 예를 들어, 프로세서는 객체(440)의 형상을 메모리에 저장된 정보들과 비교함에 따라, 객체(440)가 사람인 것을 식별할 수 있다.
다시 도 3을 참조하면, 320 단계에서, 프로세서는 차량으로부터 검출된 객체까지의 방향 및 거리를 결정한다.
예를 들어, 차량의 주변 영역이 편평하다고 가정하면, 프로세서는 영상의 세로 방향 해상도에 기초하여 차량으로부터 객체까지의 거리를 연산할 수 있다. 영상에서 객체가 식별되면, 프로세서는 영상을 촬영한 카메라로부터 식별된 객체까지의 거리를 연산할 수 있다. 예를 들어, 높이가 있는 객체의 경우, 프로세서는 객체의 바닥면을 기준으로 하여 카메라로부터 객체까지의 거리를 연산할 수 있다. 일반적으로, 영상의 하단에 위치하는 객체보다 상단에 위치하는 객체가 카메라로부터 더 먼 거리에 위치한다. 영상의 한 픽셀에 대응하는 실제 거리에 대한 정보는 기 저장되어 있을 수 있다. 또한, 카메라가 차량에 임베디드(embedded)된 위치에 대한 정보도 기 저장되어 있을 수 있다. 따라서, 프로세서는 영상에서 객체가 어디에 위치하는지에 기초하여 카메라로부터 객체까지의 거리를 연산할 수 있다. 그리고, 프로세서는 카메라로부터 객체까지의 거리에 기초하여 차량으로부터 객체까지의 거리도 연산할 수 있다.
한편, 차량에 포함된 카메라의 종류에 따라 차량으로부터 객체까지의 거리를 연산하는 방법이 달라질 수도 있다. 일 예로서, 카메라가 모노 카메라인 경우, 프로세서가 차량으로부터 객체까지의 거리를 연산하는 예는 도 6을 참조하여 후술한다. 다른 예로서, 카메라가 스테레오 카메라인 경우, 프로세서가 차량으로부터 객체까지의 거리를 연산하는 예는 도 7을 참조하여 후술한다. 또 다른 예로서, 카메라가 적외선 카메라 또는 열화상 카메라인 경우, 프로세서는 카메라에서 발신된 적외선 신호의 TOA(time of arrival)을 이용하여 차량으로부터 객체까지의 거리를 연산할 수 있다. 다시 말해, 프로세서는 적외선 신호가 객체에서 반사되어 카메라로 돌아온 시간 및 그 적외선 신호의 속도를 이용하여 차량으로부터 객체까지의 거리를 연산할 수 있다.
한편, 차량의 레이더 모듈/라이더 모듈은 방사(radial) 신호들을 발신하고, 프로세서는 방사 신호들에 대응하는 반사 신호들의 패턴을 분석함으로써 차량으로부터 객체까지의 거리를 추정할 수 있다. 또한, 프로세서는 반사 신호의 방향각 및 도플러 주파수에 기초하여 객체의 방위각을 추정할 수 있고, 객체가 이동체라고 가정하면 이동 속도 및/또는 이동 방향을 추정할 수 있다.
330 단계에서, 프로세서는 결정된 방향 및 거리에 기초하여 차량 주변을 나타내는 영상을 생성한다.
예를 들어, 프로세서는 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방향을 이용하여 객체를 포함하는 영상에 적용될 메쉬를 결정한다.
구체적으로, 프로세서는 검출된 객체의 위치를 고려하여 객체에 대응하는 메쉬를 생성할 수 있다. 일 예로서, 프로세서는 객체의 위치에 따라 기 저장된 메쉬의 일 부분을 절단함으로써, 객체에 대응하는 메쉬를 생성할 수 있다. 다른 예로서, 프로세서는 객체의 위치에 따라 기 저장된 복수의 메쉬들 중에서 객체에 대응하는 메쉬를 선택할 수 있다. 또 다른 예로서, 프로세서는 객체의 위치에 따라 기 저장된 메쉬의 일 부분의 종횡비(aspect ratio)를 변경함으로써, 객체에 대응하는 메쉬를 생성할 수 있다.
여기에서, 객체의 위치는 차량과 객체 사이의 거리 관계를 의미할 수 있다. 예를 들어, 객체의 위치는 차량의 센싱부를 기준으로 한 객체까지의 거리 및/또는 방위각을 의미할 수도 있고, 차량의 중심점을 기준으로 한 객체까지의 거리 및/또는 방위각을 의미할 수도 있다.
프로세서가 객체의 위치를 이용하여 메쉬를 결정하는 예들은 도 5 내지 도 17을 참조하여 후술한다.
예를 들어, 프로세서는 카메라가 동작함에 따라 생성된 2차원 영상을 결정된 메쉬에 와핑(warping)함에 따라 3차원 영상을 생성할 수 있다. 2차원 영상이 메쉬에 와핑되는 예는 당해 기술 분야에서의 통상의 지식을 가진 자에게 자명하므로, 구체적인 설명은 생략한다.
도 5는 일 실시예에 따른 프로세서가 객체의 방향 및 거리를 이용하여 메쉬를 결정하는 일 예를 나타내는 흐름도이다.
510 단계에서, 프로세서는 차량으로부터 객체까지의 거리를 연산한다.
일 예로서, 프로세서는 카메라에 의하여 촬영된 영상에서 객체의 형상을 분리하고, 분리된 형상의 최저점을 기준으로 차량으로부터 객체까지의 거리를 연산할 수 있다. 다른 예로서, 프로세서는 레이더 모듈 또는 라이더 모듈이 수신한 반사 신호의 도착 시간 및 반사 신호의 속도를 이용하여 차량으로부터 객체까지의 거리를 연산할 수 있다.
520 단계에서, 프로세서는 차량으로부터 객체까지의 방위각을 연산한다.
일 예로서, 프로세서는 영상에서 객체의 형상이 소정의 선(예를 들어, 영상의 중심선)을 기준으로 얼마나 떨어져 있는지에 기초하여 차량을 기준으로 한 객체의 방위각을 연산할 수 있다. 다른 예로서, 프로세서는 반사 신호가 레이더 모듈 또는 라이더 모듈에 도달한 방향에 기초하여 차량을 기준으로 한 객체의 방위각을 연산할 수 있다.
프로세서가 차량으로부터 객체까지의 거리 및 방위각을 연산하는 예들은 도 6 내지 도 9를 참조하여 후술한다. 구체적으로, 도 6을 참조하여, 카메라가 모노 카메라인 경우, 프로세서가 차량으로부터 객체까지의 거리를 연산하는 예를 설명한다. 또한, 도 7을 참조하여, 카메라가 스테레오 카메라인 경우, 프로세서가 차량으로부터 객체까지의 거리를 연산하는 예를 설명한다. 또한, 도 8을 참조하여 프로세서가 영상에 기초하여 거리 및 방위각을 연산하는 예를 설명하고, 도 9를 참조하여 프로세서가 레이더 모듈 또는 라이더 모듈이 수신한 반사 신호에 기초하여 거리 및 방위각을 연산하는 예를 설명한다.
530 단계에서, 프로세서는 연산된 거리 및 방위각에 기초하여 메쉬를 결정한다. 일 예로서, 프로세서는 연산된 거리 및 방위각에 따라 기 저장된 메쉬의 일 부분을 절단함으로써, 객체에 대응하는 메쉬를 생성할 수 있다. 다른 예로서, 프로세서는 연산된 거리 및 방위각에 따라 기 저장된 복수의 메쉬들 중에서 객체에 대응하는 메쉬를 선택할 수 있다. 또 다른 예로서, 프로세서는 연산된 거리 및 방위각에 따라 기 저장된 메쉬의 일 부분의 종횡비(aspect ratio)를 변경함으로써, 객체에 대응하는 메쉬를 생성할 수 있다. 프로세서가 메쉬를 결정하는 예들은 도 10 내지 도 17을 참조하여 후술한다.
도 6은 일 실시예에 따른 카메라가 모노 카메라인 경우에 프로세서가 차량으로부터 객체까지의 거리를 연산하는 일 예를 설명하기 위한 도면이다.
차량(610)에 모노 카메라(P)가 포함된 경우, 프로세서는 모노 카메라(P)로부터 객체(620, 630)까지의 거리를 연산할 수 있다. 이때, 모노 카메라(P)가 차량(610)에 임베디드(embedded)된 위치에 대한 정보는 기 저장되어 있을 수 있다. 따라서, 프로세서는 차량(610)으로부터 객체(620, 630)까지의 거리를 연산할 수 있다. 도 6에서는 설명의 편의를 위하여 객체(620, 630)가 나무 인 것으로 도시하였으나, 객체(620, 630)는 나무에 한정되지 않는다.
예를 들어, 프로세서는 아래의 수학식 1에 기초하여 차량(610)으로부터 객체(620, 630)까지의 거리를 연산할 수 있다.
수학식 1에서 y는 영상(I) 내에서의 높이를 의미한다. 또한, f는 모노 카메라(P)의 렌즈의 초점 거리를 의미하고, H는 지면으로부터 모노 카메라(P)까지의 높이를 의미한다. 그리고, Z는 모노 카메라(P)로부터 객체(620, 630)까지의 거리를 의미한다.
수학식 1의 변수들 중에서 f 및 H는 미리 설정되어 있을 수 있다. 따라서, 프로세서는 영상(I)내에서 객체(620, 630)의 아래면(바닥과 만나는 부분)의 위치(y)를 찾고, 수학식 1에 의해 위치(y)로부터 객체(620, 630)까지의 거리(Z)를 연산할 수 있다.
도 7은 일 실시예에 따른 카메라가 스테레오 카메라인 경우에 프로세서가 차량으로부터 차선의 끝점까지의 거리를 연산하는 일 예를 설명하기 위한 도면이다.
차량에 스테레오 카메라(711, 712)가 포함된 경우, 프로세서는 스테레오 카메라(711, 712)로부터 객체(Q)까지의 거리를 연산할 수 있다. 이때, 스테레오 카메라(711, 712)가 차량에 임베디드(embedded)된 위치에 대한 정보는 기 저장되어 있을 수 있다. 따라서, 프로세서는 차량으로부터 객체(Q)까지의 거리를 연산할 수 있다. 도 6에서는 설명의 편의를 위하여 객체(Q)가 나무 인 것으로 도시하였으나, 객체(Q)는 나무에 한정되지 않는다.
도 7에서 스테레오 카메라(711, 712)는 왼쪽 카메라(611) 및 오른쪽 카메라(712)를 포함하고, 왼쪽 카메라(711)에 의하여 생성된 영상을 좌영상(721)이라고 하고, 오른쪽 카메라(712)에서 생성된 영상을 우영상(722)이라고 한다.
예를 들어, 프로세서는 아래의 수학식 2에 기초하여 차량으로부터 객체(Q)까지의 거리를 연산할 수 있다.
수학식 2에서 Z는 스테레오 카메라(711, 712)와 객체(Q) 사이의 거리를 의미하고, B는 왼쪽 카메라(711)와 오른쪽 카메라(712) 사이의 거리를 의미한다. 또한, f는 스테레오 카메라(711, 712)의 렌즈의 초점 거리를 의미하고, d는 좌영상(721)과 우영상(722)의 시차를 의미한다.
수학식 2의 변수들 중에서 f 및 B는 미리 설정되어 있을 수 있다. 따라서, 프로세서는 좌영상(721)과 우영상(722)의 시차(d)에 기초하여 차량으로부터 객체(Q)까지의 거리(Z)를 연산할 수 있다.
도 8은 일 실시예에 따른 프로세서가 영상을 이용하여 차량으로부터 객체까지의 거리 및 방위각을 연산하는 일 예를 설명하기 위한 도면이다.
도 8에는 차량(810)의 센서부(820)에 의하여 촬영된 영상(830)의 일 예가 도시되어 있다. 여기에서, 센서부(820)는 카메라, 레이더 모듈, 라이더 모듈 또는 카메라와 레이더 모듈의 조합 중 어느 하나를 의미한다. 따라서, 도 8에 도시된 영상(830)은 센서부(820)가 동작함에 따라 획득된 정보에 기초하여 생성된 영상을 의미한다. 영상(830)에는 객체들(841, 842, 843)이 포함되어 있다.
프로세서는 영상(830) 내에서의 객체들(841, 842, 843)의 위치에 기초하여 차량(810) 또는 센서부(820)로부터 객체들(841, 842, 843)까지의 거리를 연산할 수 있다.
일반적으로, 영상(830)의 아래에는 센서부(820)와 근접한 객체(843)가 나타나고, 영상(830)의 위에는 센서부(820)로부터 먼 객체(841)가 나타난다. 또한, 센서부(820)의 해상도에 따라 영상(830)에 포함된 픽셀들의 수는 미리 결정되어 있을 수 있다. 따라서, 영상(830)에 포함된 픽셀들 각각에는 센서부(820)로부터의 거리가 사전에 매핑되어 있을 수 있다. 다시 말해, 영상(830)에 객체(841)가 나타난 경우, 프로세서는 객체(841)에 대응하는 픽셀들의 위치를 이용하여 센서부(820)로부터 객체(841)까지의 거리를 연산할 수 있다.
예를 들어, 프로세서는 영상(830)에서 객체(841)의 형상을 분리하고, 분리된 형상의 최저점에 대응하는 픽셀의 위치를 선택할 수 있다. 그리고, 프로세서는 선택된 픽셀에 사전에 매핑된 거리(예를 들어, 20m)를 확인하고, 센서부(820)로부터 객체(841)까지의 거리를 확인된 거리(예를 들어, 20m)로 결정할 수 있다.
또한, 차량(810)에는 센서부(820)가 고정된 위치에 내장(embedded)될 수 있다. 따라서, 차량(810)의 소정의 위치(예를 들어, 중심점)과 센서부(820) 사이의 위치 관계는 미리 설정되어 있을 수 있다. 따라서, 프로세서는 영상(830)을 분석하여 연산된 센서부(820)로부터 객체(841)까지의 거리를 이용하여 차량(810)의 소정의 위치로부터 객체(841)까지의 거리도 연산할 수 있다.
상술한 바와 같이, 프로세서는 영상(830)에서 다른 객체들(842, 843) 각각의 형상을 분리하고, 차량(810) 또는 센서부(820)로부터 객체들(842, 843)까지의 거리를 연산할 수 있다.
또한, 프로세서는 영상(830) 내에서의 객체들(841, 842, 843)의 위치에 기초하여 차량(810) 또는 센서부(820)를 기준으로 한 객체들(841, 842, 843)의 방위각을 연산할 수 있다.
일반적으로, 영상(830)의 중심선(850)에 나타난 객체(841)는 센서부(820)의 정면에 위치한다. 또한, 센서부(820)의 해상도에 따라 영상(830)에 포함된 픽셀들의 수는 미리 결정되어 있을 수 있다. 따라서, 영상(830)에 포함된 픽셀들 각각에는 센서부(820)를 기준으로 한 방위각이 사전에 매핑되어 있을 수 있다. 다시 말해, 중심선(850)에 위치한 픽셀들의 방위각을 0°라고 가정하면, 중심선(850)으로부터 먼 픽셀일수록 방위각이 커질 수 있다.
예를 들어, 영상(830)이 1920*1080 픽셀들을 포함하고, 센서부(820)가 차량(810)의 중심을 기준으로 좌우 0°~ 90° 내의 객체(841, 842, 843)를 검출할 수 있다고 가정한다. 이 경우, 영상(830)의 중심선(850)을 기준으로 좌측 또는 우측으로 한 열(column) 당 0.09375°(= 90°/960)의 방위각을 갖는다. 따라서, 객체(842)의 중심선(860)이 중심선(860)으로부터 좌측으로 107 번째 열이라고 가정하면, 프로세서는 객체(842)가 센서부(820)를 기준으로 우측 10°의 방위각을 갖는다고 판단할 수 있다.
프로세서는 영상(830)에서 객체(842)의 형상을 분리하고, 분리된 형상의 중심선(860)에 위치한 픽셀들에 사전에 매핑된 방위각(예를 들어, 10°)을 확인하고, 센서부(830)로부터 객체(842)까지의 방위각을 확인된 방위각(예를 들어, 10°)으로 결정할 수 있다.
또한, 차량(810)과 센서부(820) 사이의 위치 관계가 미리 설정되어 있을 수 있음은 상술한 바와 같다. 따라서, 프로세서는 영상(830)을 분석하여 연산된 센서부(820)로부터 객체(842)까지의 방위각을 이용하여 차량(810)의 소정의 위치로부터 객체(842)까지의 방위각도 연산할 수 있다.
상술한 바와 같이, 프로세서는 영상(830)에서 다른 객체들(841, 843) 각각의 형상을 분리하고, 차량(810) 또는 센서부(820)로부터 객체들(841, 843)까지의 방위각을 연산할 수 있다.
만약, 센서부(820)가 시간의 흐름에 따라 연속으로 차량(810)의 주변을 촬영한다고 가정하면, 프로세서는 도 8을 참조하여 상술한 방법에 따라 복수의 영상들 각각을 분석하여 객체들(841, 842, 843)의 이동 속도 및/또는 이동 방향을 추정할 수도 있다.
도 9는 일 실시예에 따른 프로세서가 반사 신호를 이용하여 차량으로부터 객체까지의 거리 및 방위각을 연산하는 일 예를 설명하기 위한 도면이다.
도 9에는 복수의 라이더 모듈들(921, 922, 923, 924)이 내장된 차량(910)이 도시되어 있다. 도 9에는 라이더 모듈들(921, 922, 923, 924)의 수가 4개인 것으로 도시되어 있으나, 이에 한정되지 않는다. 또한, 도 9의 라이더 모듈들(921, 922, 923, 924)은 레이더 모듈 또는 신호를 발신/수신할 수 있는 다른 장치일 수 있다.
라이더 모듈들(921, 922, 923, 924)은 각각 좁은 사잇각(예를 들어, 2°이하)을 갖는 방사(radial) 신호들을 발신하고, 프로세서는 방사 신호들에 대응하는 반사 신호들의 패턴을 분석함으로써 객체(930)의 형상을 추정할 수 있다. 또한, 프로세서는 반사 신호의 방향각 및 도플러 주파수에 기초하여 객체(930)의 방위각을 추정할 수 있고, 객체(930)가 이동체라고 가정하면 이동 속도 및/또는 이동 방향을 추정할 수 있다.
또한, 프로세서는 라이더 모듈들(921, 922, 923, 924)에서 발신된 신호의 TOA(time of arrival)을 이용하여 라이더 모듈들(921, 922, 923, 924)로부터 객체(930)까지의 거리를 연산할 수 있다. 다시 말해, 프로세서는 신호가 객체(930)에서 반사되어 라이더 모듈들(921, 922, 923, 924)로 돌아온 시간 및 그 신호의 속도를 이용하여 라이더 모듈들(921, 922, 923, 924)로부터 객체(930)까지의 거리를 연산할 수 있다.
또한, 차량(910)과 라이더 모듈들(921, 922, 923, 924)사이의 위치 관계가 미리 설정되어 있을 수 있다. 따라서, 프로세서는 차량(910)의 소정의 위치(예를 들어, 차량(910)의 중심점)로부터 객체(930)까지의 거리 및 방위각도 연산할 수 있다.
도 10은 일 실시예에 따른 프로세서가 메쉬를 결정하는 일 예를 나타내는 흐름도이다.
1010 단계에서, 프로세서는 차량과 객체의 위치 관계를 식별한다.
예를 들어, 프로세서는 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 식별할 수 있다. 프로세서가 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 연산하는 예들은 도 5 내지 도 9를 참조하여 상술한 바와 같다.
1020 단계에서, 프로세서는 위치 관계에 따라 기 저장된 메쉬의 일 부분을 절단한다.
예를 들어, 프로세서는 기본 메쉬의 중심에 차량이 위치한다고 가정하고, 기본 메쉬에서 객체가 위치하는 지점을 결정할 수 있다. 그리고, 프로세서는 기본 메쉬에서 객체가 위치하는 지점을 기준으로 기본 메쉬를 절단함으로써, 새로운 메쉬를 생성할 수 있다. 이하, 도 11을 참조하여, 프로세서가 기본 메쉬의 일 부분을 절단하는 예를 설명한다.
도 11은 일 실시예에 따른 프로세서가 메쉬의 일 부분을 절단하는 일 예를 설명하기 위한 도면이다.
도 11에는 기 저장된 메쉬(1110) 및 메쉬(1110)에서 객체(1120)가 위치하는 지점의 일 예가 도시되어 있다. 메쉬(1110)의 중심에 차량이 위치한다고 가정한다. 따라서, 메쉬(1110)에 기초하여 생성된 3차원 영상은 차량을 중심으로 한 주변 환경을 나타내는 영상이 될 수 있다.
만약, 메쉬(1110)에 기초하여 3차원 영상을 생성할 경우, 3차원 영상에서 객체(1120)는 왜곡되어 표현될 수 있다. 다시 말해, 메쉬(1110)에 기초하여 생성된 3차원 영상에서는 메쉬(1110)의 외곽선을 따라 위치한 객체들만 수직면으로 모델링될 수 있다. 따라서, 메쉬(1110)의 내부에 위치한 객체(1120)의 경우, 3차원 영상에서 객체(1120)의 높이(예를 들어, 객체(1120)가 사람일 경우, 사람의 키)가 적절하게 표현되지 않을 수 있다.
프로세서는 메쉬(1110)에서의 객체(1120)의 위치를 기준으로 메쉬(1110)를 절단함으로써 새로운 메쉬(1130)를 생성할 수 있다. 구체적으로, 프로세서는 객체(1120)가 위치하는 지점을 기준으로 메쉬(1110)의 일 부분(1140)을 삭제할 수 있다. 따라서, 객체(1120)가 메쉬(1130)의 외곽선에 위치할 수 있기에, 메쉬(1130)에 기초하여 생성된 3차원 영상에서는 객체(1120)의 높이가 적절하게 표현될 수 있다.
한편, 프로세서는 새롭게 생성된 메쉬(1130)를 메모리에 저장할 수 있다.
도 12는 일 실시예에 따른 프로세서가 메쉬를 결정하는 다른 예를 나타내는 흐름도이다.
1210 단계에서, 프로세서는 차량과 객체의 위치 관계를 식별한다.
예를 들어, 프로세서는 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 식별할 수 있다. 프로세서가 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 연산하는 예들은 도 5 내지 도 9를 참조하여 상술한 바와 같다.
1220 단계에서, 프로세서는 위치 관계에 따라 기 저장된 복수의 메쉬들 중에서 어느 하나를 선택한다.
예를 들어, 메모리에는 객체의 위치에 따라 기본 메쉬가 변형된 다양한 메쉬들이 저장되어 있을 수 있다. 프로세서는 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각에 따라 메모리에 저장된 메쉬들 중에서 객체에 적합한 메쉬를 선택하여 독출할 수 있다. 이하, 도 13 내지 도 14를 참조하여, 프로세서가 기 저장된 복수의 메쉬들 중에서 어느 하나를 선택하는 예를 설명한다.
도 13은 일 실시예에 따른 프로세서가 기 저장된 복수의 메쉬들 중에서 어느 하나를 선택하는 일 예를 설명하기 위한 도면이다.
도 13에는 차량(1310)과 차량(1310)의 주변에 객체(1320)(예를 들어, 사람)가 위치한 일 예가 도시되어 있다.
프로세서는 차량(1310)과 객체(1320)의 위치 관계를 식별한다. 구체적으로, 프로세서는 차량(1310)으로부터 객체(1320)까지의 거리 및 객체(1320)가 차량(1310)을 기준으로 어느 방향에 위치하는지를 확인한다. 예를 들어, 프로세서가 카메라에 의하여 촬영된 영상 또는 라이더/레이더 모듈을 통하여 차량(1310)과 객체(1320)의 위치 관계를 식별할 수 있음은 도 3 내지 도 9를 참조하여 상술한 바와 같다.
차량(1310)의 메모리에는 복수의 메쉬들(1331, 1332, 1333)이 저장되어 있을 수 있다. 예를 들어, 메모리에는 객체(1341, 1342, 1343)의 위치 및/또는 객체(1341, 1342, 1343)의 종류에 따라 기본 메쉬의 일 부분이 절단된 메쉬들(1331, 1332, 1333)이 저장되어 있을 수 있다.
프로세서는 차량(1310)과 객체(1320)의 위치 관계에 따라 기 저장된 메쉬들 메쉬들(1331, 1332, 1333) 중에서 객체(1320)를 표현하기에 적합한 메쉬(1333)를 선택할 수 있다. 따라서, 프로세서는 새로운 메쉬를 생성하는데 소요되는 연산 과정을 거치지 않고 객체(1320)를 표현하기에 적합한 메쉬(1333)를 획득할 수 있다.
한편, 프로세서가 영상을 이용하여 차량(1310)과 객체(1320)의 위치 관계 및 객체(1320)의 종류를 식별하는 경우, 프로세서는 기 저장된 메쉬들(1331, 1332, 1333) 중에서 영상에서 객체(1320)를 나타내는 픽셀들의 위치에 대응하는 메쉬를 선택할 수도 있다. 이하, 도 14를 참조하여 프로세서가 기 저장된 복수의 메쉬들 중에서 픽셀에 매핑된 메쉬를 선택하는 예를 설명한다.
도 14는 일 실시예에 따른 프로세서가 기 저장된 복수의 메쉬들 중에서 픽셀에 매핑된 메쉬를 선택하는 일 예를 설명하기 위한 도면이다.
도 14에는 차량(1420)이 중심에 위치하고, 객체(1430)가 차량(1420)의 주변에 위치하는 영상(1410)의 일 예가 도시되어 있다.
차량(1420)에 복수의 카메라들이 내장되어 있고, 카메라들의 위치가 서로 다를 경우, 프로세서는 카메라들 각각이 동작함에 따라 생성된 영상들을 조합하여 차량(1420)을 중심으로 한 영상(1410)을 생성할 수 있다. 또한, 프로세서는 영상(1410)을 복수의 구역들로 나누고, 각각의 구역과 기 저장된 메쉬를 매핑할 수 있다. 여기에서, 구역들은 영상(1410)에 포함된 픽셀들을 그룹핑함으로써 생성될 수 있다.
또한, 프로세서는 객체(1430)의 종류에 따라 기 저장된 메쉬를 매핑할 수도 있다. 예를 들어, 영상(1410)내의 '구역 10'에 표현된 객체(1430)가 사람인 경우의 메쉬(1443)와 '구역 10'에 표현된 객체(1430)가 차량인 경우의 메쉬(1444)를 서로 다르게 매핑할 수 있다.
프로세서는 영상(1410) 내에서 객체(1430)가 위치한 구역 및 객체(1430)의 종류를 확인한다. 그리고, 프로세서는 기 저장된 메쉬들(1441, 1442, 1443, 1444) 중에서 객체(1430)를 표현하기에 적합한 메쉬(1443)를 선택할 수 있다. 따라서, 프로세서는 새로운 메쉬를 생성하는데 소요되는 연산 과정을 거치지 않고 객체(1430)를 표현하기에 적합한 메쉬(1443)를 획득할 수 있다.
도 15는 일 실시예에 따른 프로세서가 메쉬를 결정하는 또 다른 예를 나타내는 흐름도이다.
1510 단계에서, 프로세서는 차량과 객체의 위치 관계를 식별한다.
예를 들어, 프로세서는 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 식별할 수 있다. 프로세서가 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 연산하는 예들은 도 5 내지 도 9를 참조하여 상술한 바와 같다.
1520 단계에서, 프로세서는 위치 관계에 따라 기 저장된 메쉬의 일 부분의 종횡비를 변경한다.
예를 들어, 프로세서는 기본 메쉬의 중심에 차량이 위치한다고 가정하고, 기본 메쉬에서 객체가 위치하는 지점을 결정할 수 있다. 그리고, 프로세서는 기본 메쉬에서 객체가 위치하는 지점에 기본 메쉬의 외곽선이 위치하도록 기본 메쉬의 종횡비를 변경으로써, 새로운 메쉬를 생성할 수 있다. 이하, 도 16 내지 도 17을 참조하여, 프로세서가 메쉬의 일 부분을 절단하는 예를 설명한다.
도 16는 일 실시예에 따른 프로세서가 메쉬의 일 부분의 종횡비를 변경하는 일 예를 설명하기 위한 도면이다.
도 16에는 기 저장된 메쉬(1610) 및 메쉬(1610)에서 객체(1620)가 위치하는 지점의 일 예가 도시되어 있다. 또한, 메쉬(1610)의 중심에 차량이 위치한다고 가정한다. 따라서, 메쉬(1610)에 기초하여 생성된 3차원 영상은 차량을 중심으로 한 주변 환경을 나타내는 영상이 될 수 있다.
메쉬(1610)는 원기둥, 원뿔 또는 원기둥과 원뿔이 조합된 형상을 갖을 수 있다. 다시 말해, 메쉬(1610)를 위에서 바라보면 반경이 a인 원일 수 있다.
프로세서는 메쉬(1610)에서의 객체(1620)의 위치를 기준으로 메쉬(1610)의 일 부분의 종횡비를 변경함으로써 새로운 메쉬(1630)를 생성할 수 있다. 예를 들어, 프로세서는 메쉬(1610)에서 객체(1620)의 위치에 대응하는 부분의 종횡비를 변경할 수 있다.
여기에서, 종횡비는 메쉬(1610)의 표면(1640)의 가로 길이 대 세로 길이의 비율을 의미한다. 메쉬(1610)를 위에서 바라보면, 표면(1640)은 원 또는 타원의 형상을 나타낼 수 있다. 만약, 표면(1640)이 원이라고 가정하면, 메쉬(1610)의 종횡비는 1:1이 된다. 한편, 표면(1640)이 타원이고, 가로 방향의 반지름이 a이고, 세로 방향의 반지름이 r이라고 가정하면, 메쉬(1610)의 종횡비는 a:r이 된다.
프로세서는 객체(1620)가 메쉬(1610)의 외곽선에 위치하도록 메쉬(1610)의 종횡비를 변경할 수 있다. 예를 들어, 메쉬(1630)를 위에서 바라보면, 객체(1620)의 위치에 대응하는 부분의 가로 방향의 반지름이 a에서 b로 작아질 수 있다. 따라서, 객체(1620)가 메쉬(1630)의 외곽선에 위치할 수 있기에, 메쉬(1630)에 기초하여 생성된 3차원 영상에서는 객체(1620)의 높이가 적절하게 표현될 수 있다.
도 16에는 설명의 편의를 위하여, 프로세서가 메쉬(1610)의 가로 방향의 반지름(a)만 변경하는 예를 도시하였으나, 객체(1620)의 위치에 따라 프로세서는 메쉬(1610)의 세로 방향의 반지름(r)을 변경하거나, 가로 방향의 반지름(a) 및 세로 방향의 반지름(r)을 모두 변경할 수 있다.
한편, 프로세서는 새롭게 생성된 메쉬(1630)를 메모리에 저장할 수 있다.
또한, 차량의 주변에 복수의 객체들이 위치하는 경우에도 프로세서는 객체들 각각의 위치에 기초하여 기 저장된 메쉬(1610)의 종횡비를 변경할 수 있다. 이하, 도 17을 참조하여, 프로세서가 복수의 객체들 각각의 위치에 기초하여 메쉬의 종횡비를 변경하는 예를 설명한다.
도 17은 일 실시예에 따른 프로세서가 복수의 객체들에 따라 메쉬의 종횡비를 변경하는 일 예를 설명하기 위한 도면이다.
도 17에는 메쉬(1710)를 위에서 바라본 일 예가 도시되어 있다. 도 16을 참조하여 상술한 바와 같이, 메쉬(1710)는 원기둥, 원뿔 또는 원기둥과 원뿔이 조합된 형상을 갖을 수 있다. 따라서, 메쉬(1710)를 위에서 바라보면 원일 수 있다. 또한, 메쉬(1710)의 중심에 차량(1720)이 위치한다고 가정한다.
차량(1720)의 주변에 객체(1730)가 위치하는 경우, 프로세서는 메쉬(1710)의 종횡비를 변경할 수 있음은 도 16을 참조하여 상술한 바와 같다. 한편, 차량(1720)의 주변에 다른 객체(1740)가 위치하는 경우, 프로세서는 객체(1740)가 메쉬(1710)의 외곽선에 위치하도록 메쉬(1710)의 종횡비를 추가적으로 변경할 수 있다. 따라서, 차량(1720)의 주변에 복수의 객체들(1730, 1740)이 위치한다고 하더라도, 프로세서는 객체들(1730, 1740)이 왜곡되지 않게 표현될 수 있는 매쉬(1750)를 생성할 수 있다.
한편, 프로세서는 새롭게 생성된 메쉬(1750)를 메모리에 저장할 수 있다.
도 18은 일 실시예에 따른 영상을 생성하는 방법의 다른 예를 나타내는 흐름도이다.
도 18을 참조하면, 영상을 생성하는 방법은 도 1 내지 도 17을 참조하여 상술한 프로세서에서 시계열적으로 처리되는 단계들로 구성된다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 내지 도 17을 참조하여 상술한 프로세서에 관하여 이상에서 기술된 내용은 도 18의 영상을 생성하는 방법에도 적용됨을 알 수 있다.
도 18의 1810 단계 내지 1830 단계는 도 3의 310 단계 내지 330 단계와 동일하다. 따라서, 이하에서는 1810 단계 내지 1830 단계에 대한 구체적인 설명은 생략한다.
1840 단계에서, 프로세서는 생성된 영상을 차량에 디스플레이한다.
예를 들어, 프로세서는 영상을 변경하는 사용자 입력을 수신함에 따라, 영상에 표현된 차량 및 객체들 중 적어도 하나가 제외된 영상을 디스플레이할 수 있다. 또한, 프로세서는 사용자 입력을 수신함에 따라, 버드 뷰 영상 또는 3차원 영상을 디스플레이할 수 있다. 차량에 디스플레이되는 영상의 예는 도 20a 내지 도 20c를 참조하여 후술한다.
프로세서는 생성된 영상(예를 들어, 3차원 영상)을 차량에 포함된 헤드 업 디스플레이, 미러 디스플레이 및 중앙 정보 디스플레이 중 적어도 하나에 출력할 수 있다. 이하, 도 19a 내지 도 19c를 참조하여 프로세서가 영상을 출력하는 디스플레이 장치의 예를 설명한다.
도 19a 내지 도 19c는 일 실시예에 따른 영상이 출력되는 디스플레이 장치의 예들을 설명하기 위한 도면들이다.
도 19a 및 도 19c를 참조하면, 프로세서는 3차원 영상(1910)을 차량에 디스플레이 할 수 있다. 일 예로서, 프로세서는 차량의 창에 헤드 업 디스플레이 장치를 통하여 3차원 영상(1910)를 디스플레이할 수 있다. 다른 예로서, 프로세서는 미러 디스플레이 장치를 통하여 차량의 사이드 미러(side mirror)에 3차원 영상(1920)을 디스플레이할 수도 있다. 또 다른 예로서, 프로세서는 차량의 중앙 정보 디스플레이 장치(또는 차량 주행 보조 장치와 유선 또는 무선으로 연결된 디스플레이 장치)의 화면에 3차원 영상(1930)을 디스플레이할 수도 있다.
도 20a 내지 도 20d는 일 실시예에 따라 디스플레이되는 영상의 예들을 설명하기 위한 도면들이다.
프로세서는 사용자 입력을 수신함에 따라 디스플레이 장치(2100)에 디스플레이되는 영상을 변경할 수 있다. 여기에서, 디스플레이 장치(2100)는 도 21 및 도 22에 도시된 차량 주행 보조 장치(2000)일 수 있다. 예를 들어, 디스플레이 장치(2100)의 화면에 영상을 변경하는 지시자(indicator)(예를 들어, 아이콘)(2110)가 디스플레이될 수 있다. 지시자(2110)를 선택하는 사용자 입력이 수신됨에 따라, 프로세서는 디스플레이 장치(2100)에 디스플레이된 영상을 변경할 수 있다.
일 예로서, 도 20a 및 도 20c을 참조하면, 프로세서는 사용자 입력에 따라 3차원 영상(2210, 2230)을 디스플레이할 수 있다. 구체적으로, 프로세서는 차량 및 객체들이 출력된 3차원 영상(2210) 또는 객체들만 출력된 3차원 영상(2230)을 디스플레이할 수 있다.
다른 예로서, 도 20b 및 도 20d를 참조하면, 프로세서는 사용자 입력에 따라 버드 뷰 영상(2220, 2240)을 디스플레이할 수 있다. 구체적으로, 프로세서는 차량 및 객체들이 출력된 버드 뷰 영상(2220) 또는 객체들만 출력된 버드 뷰 영상(2240)을 디스플레이할 수 있다.
도 21 및 도 22는 일 실시예에 따른 프로세서를 포함하는 차량 주행 보조 장치의 예들을 나타내는 구성도들이다.
도 20을 참조하면, 차량 주행 보조 장치(2000)는 프로세서(2030), 메모리(2070) 및 통신부(2050)를 포함한다.
그러나, 도 20에 도시된 구성 요소들 모두가 차량 주행 보조 장치(2000)의 필수 구성 요소인 것은 아니다. 도 20에 도시된 구성 요소들보다 많은 구성 요소에 의해 차량 주행 보조 장치(2000)가 구현될 수도 있고, 도 20에 도시된 구성 요소보다 적은 구성 요소들에 의해 차량 주행 보조 장치(2000)가 구현될 수도 있다.
예를 들어, 도 21에 도시된 바와 같이, 차량 주행 보조 장치(2000)는, 프로세서(2030), 메모리(2070) 및 통신부(2050) 이외에 사용자 입력부(2010), 출력부(2020), 센싱부(2040) 및 구동부(2060)를 더 포함할 수도 있다.
사용자 입력부(2010)는 사용자가 장치(2000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(2010)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 입력부(2010)는 사용자의 음성 입력에 대한 답변 메시지를 요청하고 답변 메시지에 관련된 동작을 실행하기 위한 사용자 입력을 수신할 수 있다.
출력부(2020)는 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있다. 출력부(2020)는 디스플레이부(2021), 음향 출력부(2021) 및 진동 모터(2023) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
디스플레이부(2021)는 장치(2000)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(2021)는 사용자의 음성 입력에 대한 답변 메시지를 요청하고 답변 메시지에 관련된 동작을 실행하기 위한 사용자 인터페이스를 디스플레이할 수 있다. 또한, 디스플레이부(2021)는 차량 주변을 나타내는 3차원 영상을 디스플레이할 수 있다.
음향 출력부(2021)는 통신부(2050)로부터 수신되거나 메모리(2070)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(2021)는 장치(2000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다.
프로세서(2030)는 통상적으로 장치(2000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2030)는 메모리(2070)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(2010), 출력부(2020), 센싱부(2040), 통신부(2050), 구동부(2060) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(2030)는 메모리(2070)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 19를 참조하여 상술한 기능을 수행할 수 있다. 예를 들어, 프로세서(2030)는 MCU(micro controller unit)일 수 있다. 또한, 프로세서(2030)는 인식 프로세서(cognitive processor)의 기능을 수행할 수도 있다.
예를 들어, 프로세서(2030)는 차량 주변을 촬영한 결과를 이용하여 차량 주변의 적어도 하나의 객체를 검출할 수 있다. 그리고, 프로세서(2030)는 검출된 객체의 위치 정보를 이용하여 객체를 포함하는 영상에 적용될 메쉬를 결정할 수 있다. 그리고, 프로세서(2030)는 결정된 메쉬에 기초하여 차량 주변을 나타내는 영상(예를 들어, 3차원 영상)을 생성할 수 있다.
또한, 프로세서(2030)는 차량으로부터 객체까지의 거리 및 차량을 기준으로 한 객체의 방위각을 연산할 수 있다.
또한, 프로세서(2030)는 객체의 위치에 따라 기 저장된 메쉬의 일 부분을 절단 할 수 있다. 또한, 프로세서(2030)는 객체의 위치에 따라 메모리(2070)에 기 저장된 복수의 메쉬들 중에서 어느 하나를 선택할 수 있다. 또한, 프로세서(2030)는 객체의 위치에 따라 기 저장된 메쉬의 일 부분의 종횡비를 변경할 수 있다.
또한, 프로세서(2030)는 차량 주변을 나타내는 영상(예를 들어, 3차원 영상)을 디스플레이부(2021)를 통하여 디스플레이할 수 있다.
센싱부(2040)는 장치(2000)의 상태를 감지하고, 감지된 정보를 프로세서(2030)로 전달할 수 있다. 또한, 센싱부(2040)는 사용자 또는 차량의 주변 상황(예를 들어, 객체의 유무 등)을 나타내는 컨텍스트 정보를 획득하거나 생성하는데 이용될 수 있다.
센싱부(2040)는 GPS(Global Positioning System) 모듈(2041), IMU(Inertial Measurement Unit)(2042), 레이더 모듈(2043), 라이더 모듈(2044), 이미지 센서(2045), 환경 센서(2046), 근접 센서(2047), RGB 센서(illuminance sensor)(2048), 움직임 센서(2049) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 센싱부(2040)에 포함된 구성들의 기능은 그 명칭으로부터 당해 기술 분야에서의 일반적인 지식을 가진 자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
IMU(2042)는 관성 가속도에 기초하여 차량의 위치 및 배향 변화들을 감지하는데 이용될 수 있다. 예를 들어, IMU(2042)는 가속도계들 및 자이로스코프들을 포함할 수 있다.
레이더 모듈(2043)은 무선 신호를 사용하여 차량의 주변 환경 내의 객체들을 감지하는데 이용될 수 있다. 또한, 레이더 모듈(2043)은 객체들의 속도 및/또는 방향을 감지할 수 있다.
라이더 모듈(2044)은 레이저를 사용하여 차량의 주변 환경 내의 객체들을 감지하는데 이용될 수 있다. 구체적으로, 라이더 모듈(2044)은 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. 라이더 모듈(2044)은 코히런트(coherent)(예를 들어, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.
이미지 센서(2045)는 차량의 내부 및 외부를 나타내는 영상들을 생성하는데 이용되는 카메라를 포함할 수 있다. 예를 들어, 카메라는 모노(mono) 카메라, 스테레오(stereo) 카메라, 적외선 카메라 또는 열화상 카메라를 의미할 수 있으나, 이에 한정되지 않는다. 이미지 센서(2045)는 다수의 카메라들을 포함할 수 있고, 다수의 카메라들은 차량의 내부 및 외부의 다수의 위치들에 배치될 수 있다.
환경 센서(2046)은 날씨를 포함하는 차량의 외부 환경을 감지하는데 이용될 수 있다. 예를 들어, 환경 센서(2046)는 온/습도 센서(20461), 적외선 센서(20462) 및 기압 센서(20463)를 포함할 수 있다.
근접 센서(2047)는 차량에 접근하는 객체를 감지하는데 이용될 수 있다.
움직임 센서(2049)는 차량의 움직임을 센싱하는데 이용될 수 있다. 예를 들어, 움직임 센서(2049)는 지자기 센서(Magnetic sensor)(20491), 가속도 센서(Acceleration sensor)(20492) 및 자이로스코프 센서(20493)를 포함할 수 있다.
통신부(2050)는 장치(2000)가 차량의 다른 장치, 외부 장치 또는 외부 서버와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 외부 장치는 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 한정되지 않는다. 예를 들어, 통신부(2050)는 근거리 통신부(2051), 이동 통신부(2052) 및 방송 수신부(2053) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
근거리 통신부(short-range wireless communication unit)(2051)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(2052)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
또한, 통신부(2050)는 사용자의 음성 입력에 대한 답변 메시지를 요청하고 답변 메시지에 관련된 동작을 실행하기 위한 필요한 정보를, 외부 장치 및 외부 서버와 송수신할 수 있다.
구동부(2060)는 차량의 구동(운행) 및 차량 내부의 장치들의 동작에 이용되는 구성들을 포함할 수 있다. 구동부(2060)는 전원 공급부(2061), 추진부(2062), 주행부(2063) 및 주변 장치부(2064) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
전원 공급부(2061)는 차량의 구성요소들 중 일부 또는 전부에 전력을 제공하도록 구성될 수 있다. 예를 들어, 전원 공급부(2061)는 재충전가능 리튬 이온 또는 납산(lead-acid) 배터리를 포함할 수 있다.
추진부(2062)는 엔진/모터, 에너지원, 변속기 및 휠/타이어를 포함할 수 있다.
엔진/모터는 내연 기관, 전기 모터, 증기 기관, 및 스틸링 엔진(stirling engine) 간의 임의의 조합이 될 수 있다. 예를 들어, 차량이 가스-전기 하이브리드 자동차(gas-electric hybrid car)인 경우, 엔진/모터는 가솔린 엔진 및 전기 모터가 될 수 있다.
주변 장치부(2064)는 네비게이션, 라이트, 방향 지시등, 와이퍼, 내부 조명, 히터 및 에어컨을 포함할 수 있다.
여기에서, 네비게이션은 차량에 대한 운행 경로를 결정하도록 구성되는 시스템일 수 있다. 네비게이션은 차량이 주행하고 있는 동안 동적으로 운행 경로를 갱신하도록 구성될 수 있다. 예를 들어, 네비게이션은 차량에 대한 운행 경로를 결정하기 위해, GPS 모듈(2041)에 의하여 수집된 데이터를 이용할 수 있다.
메모리(2070)는 프로세서(2030)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 외부 장치 또는 외부 서버로 전송되거나 외부 장치 또는 외부 서버로부터 수신되는 데이터를 저장할 수도 있다.
메모리(2070)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(2070)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, 메모리(2070)는 UI 모듈(2071), 터치 스크린 모듈(2072) 및 알림 모듈(2073) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다.
UI 모듈(2071)은, 애플리케이션 별로 장치(2000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(2072)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(2030)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(2072)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(2072)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
상술한 바에 따르면, 프로세서는 차량 주변의 객체의 실제 위치에 따라 3차원 메쉬를 변형할 수 있다. 또는, 프로세서는 차량 주변의 객체의 실제 위치에 따라 기 저장된 3차원 메쉬들 중에서 적절한 3차원 메쉬를 선택할 수 있다. 따라서, 차량에 디스플레이되는 3차원 영상에는 객체의 형상 및 차량과 객체 사이의 위치 관계가 정확하게 표현될 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
또한, 상술한 방법은 컴퓨터로 읽을 수 있는 기록매체에 유지되는 프로그램들 중 적어도 하나의 프로그램에 포함된 명령어(instructions)의 실행을 통하여 수행될 수 있다. 상기 명령어가 컴퓨터에 의해 실행될 경우, 상기 적어도 하나의 컴퓨터는 상기 명령어에 해당하는 기능을 수행할 수 있다. 여기서, 명령어는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 본 개시에서, 컴퓨터의 일 예는, 프로세서가 될 수 있으며, 기록매체의 일 예는 메모리가 될 수 있다.
상술한 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
Claims (15)
- 차량 주변을 센싱한 결과를 이용하여 상기 차량 주변의 적어도 하나의 객체를 검출하고, 상기 검출된 적어도 하나의 객체의 방향 및 거리를 결정하고, 상기 결정된 방향 및 거리에 기초하여, 상기 차량 주변을 나타내는 영상을 생성하는 프로세서;를 포함하는 영상을 생성하는 장치.
- 제 1 항에 있어서,상기 프로세서는상기 결정된 방향 및 거리를 고려하여 상기 적어도 하나의 객체에 대응하는 상기 메쉬를 생성하는 장치.
- 제 1 항에 있어서,상기 프로세서는상기 결정된 방향 및 거리에 따라 기 저장된 메쉬의 일 부분을 절단(cut)하는 장치.
- 제 1 항에 있어서,상기 프로세서는상기 결정된 방향 및 거리에 따라 기 저장된 복수의 메쉬들 중에서 어느 하나를 선택하는 장치.
- 제 1 항에 있어서,상기 프로세서는상기 결정된 방향 및 거리에 따라 기 저장된 메쉬의 일 부분의 종횡비(aspect ratio)를 변경하는 장치.
- 제 1 항에 있어서,상기 프로세서는상기 차량에 포함된 카메라 및 레이더 장치 중 적어도 하나로부터 수신한 정보를 이용하여 상기 적어도 하나의 객체를 검출하는 장치.
- 제 1 항에 있어서,상기 프로세서는상기 생성된 영상을 상기 차량에 포함된 디스플레이 장치에게 전송하는 장치.
- 제 1 항에 있어서,상기 프로세서는영상의 시점(view point)을 선택하는 사용자 입력을 수신함에 따라, 상기 생성된 영상에 표현된 상기 차량 및 상기 적어도 하나의 객체 중 적어도 하나가 제외된 영상을 상기 차량에 포함된 디스플레이 장치에게 전송하는 장치.
- 제 1 항에 있어서,상기 결정된 메쉬를 저장하는 메모리;를 더 포함하는 장치.
- 차량 주변을 센싱한 결과를 이용하여, 상기 차량 주변의 적어도 하나의 객체를 검출하는 단계;상기 차량으로부터 상기 검출된 적어도 하나의 객체까지의 방향 및 거리를 결정하는 단계; 및상기 결정된 방향 및 거리에 기초하여, 상기 차량 주변을 나타내는 영상을 생성하는 단계;를 포함하는 영상을 생성하는 방법.
- 제 10 항에 있어서,상기 생성하는 단계는상기 결정된 방향 및 거리를 고려하여 상기 적어도 하나의 객체에 대응하는 메쉬를 생성하고, 상기 생성된 메쉬에 기초하여 상기 영상을 생성하는 방법.
- 제 10 항에 있어서,상기 생성하는 단계는상기 결정된 방향 및 거리에 따라 기 저장된 메쉬의 일 부분을 절단(cut)하고, 상기 절단된 메쉬에 기초하여 상기 영상을 생성하는 방법.
- 제 10 항에 있어서,상기 생성하는 단계는상기 결정된 방향 및 거리에 따라 기 저장된 복수의 메쉬들 중에서 어느 하나를 선택하고, 상기 선택된 메쉬에 기초하여 상기 영상을 생성하는 방법.
- 제 10 항에 있어서,상기 생성하는 단계는상기 결정된 방향 및 거리에 따라 기 저장된 메쉬의 일 부분의 종횡비(aspect ratio)를 변경하고, 상기 변경된 메쉬에 기초하여 상기 영상을 생성하는 방법.
- 제 10 항에 있어서,상기 검출하는 단계는상기 차량에 포함된 카메라 및 레이더 장치 중 적어도 하나로부터 수신된 정보를 이용하여 상기 객체를 검출하는 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/479,352 US10964048B2 (en) | 2017-01-23 | 2017-11-27 | Method and device for generating image for indicating object on periphery of vehicle |
EP17892884.2A EP3561774A4 (en) | 2017-01-23 | 2017-11-27 | METHOD AND DEVICE FOR GENERATING AN IMAGE TO INDICATE AN OBJECT ON THE PERIPHERY OF A VEHICLE |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170010677A KR102719930B1 (ko) | 2017-01-23 | 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치. | |
KR10-2017-0010677 | 2017-01-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018135745A1 true WO2018135745A1 (ko) | 2018-07-26 |
Family
ID=62909123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/013583 WO2018135745A1 (ko) | 2017-01-23 | 2017-11-27 | 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10964048B2 (ko) |
EP (1) | EP3561774A4 (ko) |
WO (1) | WO2018135745A1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102631933B1 (ko) * | 2018-08-10 | 2024-02-02 | 삼성디스플레이 주식회사 | 표시장치 및 그 제조방법 |
US11009590B2 (en) | 2018-08-29 | 2021-05-18 | Aptiv Technologies Limited | Annotation of radar-profiles of objects |
US11410360B2 (en) * | 2019-05-17 | 2022-08-09 | University Of Washington | Techniques for managing multi-user content in augmented reality applications |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140152774A1 (en) * | 2011-09-27 | 2014-06-05 | Aisin Seiki Kabushiki Kaisha | Vehicle periphery monitoring device |
KR20150011629A (ko) * | 2013-07-23 | 2015-02-02 | 현대오트론 주식회사 | 물체의 윤곽을 표시하는 어라운드 뷰 시스템 및 차량의 어라운드 뷰 제공 방법 |
KR20160060736A (ko) * | 2013-09-23 | 2016-05-30 | 폭스바겐 악티엔 게젤샤프트 | 차량의 주변을 표시하는 운전자 보조 시스템 |
KR20160074108A (ko) * | 2014-12-18 | 2016-06-28 | 현대모비스 주식회사 | 차량 및 그 제어 방법 |
WO2016195647A1 (en) * | 2015-05-30 | 2016-12-08 | Leia Inc. | Vehicle monitoring system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013220005A1 (de) * | 2013-10-02 | 2015-04-02 | Continental Automotive Gmbh | Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem |
TWI600558B (zh) | 2014-04-01 | 2017-10-01 | Dynamic lane detection system and method | |
US20160159281A1 (en) | 2014-12-04 | 2016-06-09 | Hyundai Mobis Co., Ltd. | Vehicle and control method thereof |
US10523865B2 (en) * | 2016-01-06 | 2019-12-31 | Texas Instruments Incorporated | Three dimensional rendering for surround view using predetermined viewpoint lookup tables |
-
2017
- 2017-11-27 EP EP17892884.2A patent/EP3561774A4/en active Pending
- 2017-11-27 WO PCT/KR2017/013583 patent/WO2018135745A1/ko unknown
- 2017-11-27 US US16/479,352 patent/US10964048B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140152774A1 (en) * | 2011-09-27 | 2014-06-05 | Aisin Seiki Kabushiki Kaisha | Vehicle periphery monitoring device |
KR20150011629A (ko) * | 2013-07-23 | 2015-02-02 | 현대오트론 주식회사 | 물체의 윤곽을 표시하는 어라운드 뷰 시스템 및 차량의 어라운드 뷰 제공 방법 |
KR20160060736A (ko) * | 2013-09-23 | 2016-05-30 | 폭스바겐 악티엔 게젤샤프트 | 차량의 주변을 표시하는 운전자 보조 시스템 |
KR20160074108A (ko) * | 2014-12-18 | 2016-06-28 | 현대모비스 주식회사 | 차량 및 그 제어 방법 |
WO2016195647A1 (en) * | 2015-05-30 | 2016-12-08 | Leia Inc. | Vehicle monitoring system |
Non-Patent Citations (1)
Title |
---|
See also references of EP3561774A4 * |
Also Published As
Publication number | Publication date |
---|---|
US20190385334A1 (en) | 2019-12-19 |
EP3561774A1 (en) | 2019-10-30 |
EP3561774A4 (en) | 2019-11-20 |
KR20180086794A (ko) | 2018-08-01 |
US10964048B2 (en) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019209057A1 (en) | Method of determining position of vehicle and vehicle using the same | |
WO2017196062A1 (en) | Distance sensor, and calibration method performed by device and system including the distance sensor | |
WO2018110964A1 (en) | Electronic device and method for recognizing object by using plurality of sensors | |
WO2020130679A1 (en) | Vehicle driving control apparatus and calibration method performed by the vehicle driving control apparatus | |
WO2019143040A1 (en) | Device and method for assisting with driving of vehicle | |
WO2021137485A1 (en) | Method and device for displaying 3d augmented reality navigation information | |
WO2020071683A1 (ko) | 자율 주행 장치의 객체 인식 방법 및 자율 주행 장치 | |
WO2020036419A1 (en) | Method of assisting autonomous vehicle, and apparatus therefor | |
WO2018182275A1 (en) | Method and device for controlling driving based on sensing information | |
WO2018143589A1 (ko) | 차선 정보를 출력하는 방법 및 장치 | |
WO2018164377A1 (ko) | 지도 데이터를 생성하는 전자 장치 및 그 동작 방법 | |
WO2018066816A1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2020004817A1 (ko) | 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체 | |
WO2020226343A1 (en) | Electronic device and method for assisting with driving of vehicle | |
WO2016140394A1 (ko) | 차량 사고 방지를 위한 장치 및 그의 동작 방법 | |
WO2020145607A1 (en) | Electronic apparatus and method of assisting driving of vehicle | |
WO2020231153A1 (en) | Electronic device and method for assisting with driving of vehicle | |
WO2018182153A1 (ko) | 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법 | |
WO2016080605A1 (ko) | 전자 기기 및 그 제어방법 | |
WO2019172645A1 (ko) | 차량의 주행을 보조하는 전자 장치 및 방법 | |
WO2020138760A1 (ko) | 전자 장치 및 그의 제어 방법 | |
WO2018135745A1 (ko) | 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치 | |
WO2019135537A1 (ko) | 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법 | |
WO2019208950A1 (ko) | 사용자에게 서비스를 제공하는 이동형 로봇 장치 및 방법 | |
WO2018117538A1 (ko) | 차선 정보를 추정하는 방법 및 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17892884 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2017892884 Country of ref document: EP Effective date: 20190723 |