WO2023282466A1 - Training data collection method using laser preview, and computer program recorded on recording medium to execute same - Google Patents

Training data collection method using laser preview, and computer program recorded on recording medium to execute same Download PDF

Info

Publication number
WO2023282466A1
WO2023282466A1 PCT/KR2022/007642 KR2022007642W WO2023282466A1 WO 2023282466 A1 WO2023282466 A1 WO 2023282466A1 KR 2022007642 W KR2022007642 W KR 2022007642W WO 2023282466 A1 WO2023282466 A1 WO 2023282466A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
vehicle
lidar
data collection
learning
Prior art date
Application number
PCT/KR2022/007642
Other languages
French (fr)
Korean (ko)
Inventor
승정민
Original Assignee
주식회사 인피닉
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인피닉 filed Critical 주식회사 인피닉
Publication of WO2023282466A1 publication Critical patent/WO2023282466A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Definitions

  • the present invention relates to the processing of artificial intelligence (AI) learning data. More specifically, in collecting data for machine learning of artificial intelligence (AI), it relates to a learning data collection method using a laser preview and a computer program recorded on a recording medium to execute the method.
  • AI artificial intelligence
  • AI Artificial intelligence
  • machine learning refers to learning to optimize parameters with given data using a model composed of multiple parameters. Such machine learning is classified into supervised learning, unsupervised learning, and reinforcement learning according to the form of learning data.
  • designing data for artificial intelligence (AI) learning proceeds in the steps of data structure design, data collection, data refinement, data processing, data expansion, and data verification.
  • data structure design is performed through ontology definition, classification system definition, and the like.
  • Data collection is performed by collecting data through direct filming, web crawling, or associations/professional organizations.
  • Data purification is performed by removing redundant data from collected data and de-identifying personal information.
  • Data processing is performed by performing annotation and inputting metadata.
  • Data extension is performed by performing ontology mapping and supplementing or extending the ontology as needed.
  • data verification is performed by verifying validity according to the set target quality using various verification tools.
  • autonomous driving of a vehicle refers to a system that can judge and drive a vehicle by itself. Such autonomous driving may be classified into gradual stages from non-automation to complete automation according to the degree of involvement of the system in driving and the degree of control of the vehicle by the driver.
  • the level of autonomous driving is divided into six levels classified by the Society of Automotive Engineers (SAE) International. According to the six levels classified by the International Association of Automotive Engineers, level 0 is non-automation, level 1 is driver assistance, level 2 is partial automation, level 3 is conditional automation, level 4 is highly automated, and level 5 The steps are fully automated steps.
  • SAE Society of Automotive Engineers
  • Autonomous driving of vehicles is performed through mechanisms of perception, localization, path planning, and control.
  • AI artificial intelligence
  • Data used for machine learning of artificial intelligence (AI) that can be used for autonomous driving of these vehicles is collected by various types of sensors installed in the vehicle.
  • the data used for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle are lidar, camera, radar, and ultrasonic sensor fixed to the vehicle. ) may be acquired, photographed, or sensed data by, but is not limited thereto.
  • AI artificial intelligence
  • One object of the present invention is to provide a method for collecting learning data using laser preview in collecting data for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle.
  • AI artificial intelligence
  • Another object of the present invention is to provide a computer program recorded on a recording medium to execute a learning data collection method using laser preview in collecting data for machine learning of artificial intelligence (AI).
  • AI artificial intelligence
  • the present invention proposes a method for effectively controlling multiple sensors for collecting data for machine learning of artificial intelligence (AI).
  • the method includes the steps of receiving, through the transceiver, sensing data from a ray in which a learning data collection device is fixed to a vehicle, and a radar in which the processor is fixed to the vehicle; identifying, by the processor, an object from the received sensing data; And it may be a computer program recorded on a recording medium so that the processor executes the step of controlling a lidar that is fixedly installed in the vehicle and emits laser pulses in response to the distance from the identified object.
  • AI artificial intelligence
  • Details of other embodiments include receiving sensing data from detailed descriptions and radars; identifying an object from the received sensing data by the learning data collection device; and controlling, by the learning data collection device, a lidar fixedly installed in the vehicle to emit laser pulses in response to a distance between the vehicle and the identified object.
  • the detection data may be information on points at which the electromagnetic wave signal emitted by the radar toward the driving direction of the vehicle is reflected.
  • the object in the identifying the object, may be identified by extracting points forming a crowd within a preset threshold range from points included in the sensed data.
  • the lidar when no object is identified from the sensing data, the lidar may be controlled not to emit the laser pulse.
  • the lidar when the distance between the vehicle and the object is greater than a preset lidar recognition range, the lidar does not emit the laser pulse or emits the laser pulse only with a preset intensity. It can be controlled to emit.
  • the laser pulse radiation period of the lidar is lengthened or shortened in proportion to the distance from the object. You can control it.
  • a plurality of cameras fixed to the vehicle may be controlled to capture 2D images. In this case, the specific possible range corresponds to a narrower range than the lidar recognition range.
  • a resolution of a 2D image to be photographed by the plurality of cameras may be differently set in correspondence to a distance between the vehicle and the object.
  • the controlling of the lidar includes estimating a movement path of the object based on a time-sequential change in position of the object included in the sensing data, and photographing a direction corresponding to the estimated movement path among the plurality of cameras.
  • the shooting cycle of the camera can be set shorter than that of cameras shooting in other directions.
  • a plurality of ultrasonic sensors fixed to the vehicle may be controlled to emit ultrasonic waves.
  • the present invention proposes a computer program recorded on a recording medium to execute a method capable of effectively controlling multiple sensors.
  • the computer program may include a memory; transceiver; and a processor configured to process instructions resident in the memory.
  • AI machine learning artificial intelligence
  • AI artificial intelligence
  • data of relatively low importance may be reduced. In this way, by reducing data of relatively low importance, it is possible to lower the burden of data processing for machine learning of artificial intelligence (AI).
  • FIG. 1 is a block diagram of an artificial intelligence learning system according to an embodiment of the present invention.
  • FIG. 2 is an exemplary view for explaining multiple sensors according to an embodiment of the present invention.
  • FIG. 3 is a logical configuration diagram of a learning data collection device according to an embodiment of the present invention.
  • FIG. 4 is a hardware configuration diagram of a learning data collection device according to an embodiment of the present invention.
  • 5 to 7 are exemplary diagrams for explaining a process of controlling multiple sensors according to an embodiment of the present invention.
  • FIGS. 8 and 9 are exemplary diagrams for explaining a process of post-processing collected data according to an embodiment of the present invention.
  • 10 to 12 are exemplary diagrams for explaining a process of correcting errors of multiple sensors according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a data collection method according to an embodiment of the present invention.
  • first and second used in this specification may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
  • AI artificial intelligence
  • the present invention can effectively control multiple sensors that collect data for machine learning of artificial intelligence (AI), reduce meaningless data, and minimize errors between data collected by multiple sensors.
  • AI artificial intelligence
  • FIG. 1 is a block diagram of an artificial intelligence learning system according to an embodiment of the present invention.
  • the artificial intelligence learning system includes a learning data collection device 100, a learning data generating device 200, a plurality of annotation devices 300, and an artificial intelligence learning device ( 400) may be configured.
  • components of the artificial intelligence learning system are merely functionally distinct elements, two or more components are integrated and implemented in an actual physical environment, or one component is implemented in an actual physical environment. may be implemented separately from each other.
  • the learning data collection device 100 is a device that can be used to collect data for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle.
  • AI artificial intelligence
  • the learning data collection device 100 may obtain, capture, or sense data by controlling multiple sensors. And, the learning data collection device 100 may transmit acquired, photographed, or sensed data to the learning data generating device 200 so that they can be processed.
  • the multiple sensors that are controlled by the learning data collection device 100 may include one or more of a lidar, a camera, a radar, and an ultrasonic sensor. It is not limited.
  • the learning data collection apparatus 100 effectively controls multiple sensors for collecting data, reduces meaningless data, and reduces errors between data collected by multiple sensors. It has features that can be minimized.
  • the learning data generating device 200 is a device that can be used to design and process data for machine learning of artificial intelligence (AI) that can be used for autonomous driving of vehicles.
  • AI artificial intelligence
  • the learning data generating device 200 may receive attributes of a project related to artificial intelligence (AI) learning from the artificial intelligence learning device 400 .
  • the learning data generating device 200 is based on the user's control and the properties of the received project, designing a data structure for artificial intelligence (AI) learning, refining collected data, processing data, expanding data, and verification can be performed.
  • AI artificial intelligence
  • the learning data generating device 200 may design a data structure for artificial intelligence (AI) learning.
  • AI artificial intelligence
  • the learning data generating device 200 forms an ontology for artificial intelligence (AI) learning and a data classification system for artificial intelligence (AI) learning based on the attributes of the user's control and the received project.
  • AI artificial intelligence
  • the learning data generating device 200 may collect data for artificial intelligence (AI) learning based on the designed data structure. To this end, the learning data generating device 200 may receive sensing data, 3D point cloud data, 2D images, and sensing data from the learning data collecting device 100 . However, the learning data generation device 200 is not limited thereto, and may perform web crawling or download data from an external organization's device.
  • AI artificial intelligence
  • the learning data generation apparatus 200 may remove redundant or extremely similar data from among the collected sensing data, 3D point cloud data, 2D images, and sensing data.
  • the learning data generation apparatus 200 may de-identify personal information included in the collected sensing data, 3D point cloud data, and 2D images.
  • the learning data generating device 200 may distribute and transmit collected and refined sensing data, 3D point cloud data, 2D images, and sensing data to a plurality of annotation devices 300 .
  • the learning data generating device 200 generates sensing data, 3D point cloud data, 2D images, and sensing data in response to a pre-allocated amount for an operator (ie, labeler) of the annotation device 300. can be distributed
  • the learning data generating device 200 may receive annotation work results from each annotation device 300 .
  • the learning data generating device 200 may generate AI learning data by packaging the received annotation work result. And, the learning data generating device 200 may transmit the generated artificial intelligence (AI) learning data to the artificial intelligence learning device 400 .
  • AI artificial intelligence
  • the learning data generation device 200 having such characteristics transmits and receives data to and from the learning data collection device 100, the annotation device 300, and the artificial intelligence learning device 400, and performs calculations based on the transmitted and received data. Any device that can do this is acceptable.
  • the learning data generating device 200 may be any one of a fixed computing device such as a desktop, workstation, or server, but is not limited thereto.
  • the annotation device 300 is a device that can be used to annotate the sensed data distributed by the learning data generating device 200, 3D point cloud data, 2D images, and sensing data. All or part of the annotation device 300 may be a device for performing annotation work by an annotation worker through a clouding service.
  • the annotation device 300 selects one sensed data, 3D point cloud data, It can be output to 2D image or sensing data display.
  • the annotation device 300 may select a tool according to a signal input from a user through an input/output device.
  • the tool is a tool for setting a bounding box that specifies one or more objects included in sensing data, 3D point cloud data, 2D image, or sensing data.
  • the annotation device 300 may receive coordinates according to the selected tool through an input/output device.
  • the annotation device 300 may specify an object included in sensing data, 3D point cloud data, 2D image, or sensing data by setting a bounding box based on the input coordinates.
  • the bounding box is an area for specifying an object to be learned by artificial intelligence (AI) among objects included in sensing data, 3D point cloud data, 2D image, or sensing data.
  • AI artificial intelligence
  • Such a bounding box may have a rectangle or cube shape, but is not limited thereto.
  • the annotation device 300 receives two coordinates through an input/output device, and based on the inputted two coordinates, the coordinates and the upper left vertex within sensing data, 3D point cloud data, 2D image, or sensing data.
  • An object can be specified by setting a bounding box based on a rectangle with the coordinates of the lower right vertex.
  • the two coordinates may be set by the user inputting one type of input signal twice (eg, mouse click) or by the user inputting two types of input signal once (eg, mouse drag). It may, but is not limited thereto.
  • the annotation device 300 generates sensing data, 3D point cloud data, 2D image, sensing data, or metadata for a set object to be annotated according to a signal input from a user through an input/output device.
  • the metadata is sensing data, 3D point cloud data, 2D image, sensing data, or data for describing an object.
  • metadata includes the category of the specified object, the rate at which the object is clipped by the angle of view, the rate at which the object is obscured by other objects or objects, the tracking ID of the object, the time the image was taken, and the weather conditions on the day the image was taken.
  • file size may include, but are not limited to, file size, image size, copyright holder, resolution, bit value, aperture transmittance, exposure time, ISO sensitivity, focal length, aperture value, angle of view, white balance, RGB depth, class name , tag, shooting location, type of road, road surface information, or traffic jam information may be further included.
  • the annotation device 300 may generate an annotation work result based on the specified object and generated metadata.
  • the annotation work result may have a JSON (Java Script Object Notation) file format, but is not limited thereto.
  • the annotation device 300 may transmit the generated annotation work result to the learning data generating device 200 .
  • the annotation device 100 may be a stationary computing device such as a desktop, workstation, or server, or a smartphone, laptop, tablet, or tablet. It may be any one of mobile computing devices such as a phablet, a portable multimedia player (PMP), a personal digital assistant (PDA), or an e-book reader.
  • PMP portable multimedia player
  • PDA personal digital assistant
  • the artificial intelligence learning device 400 is a device that can be used for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle.
  • AI artificial intelligence
  • the artificial intelligence learning device 400 may transmit requirements for achieving the purpose of artificial intelligence (AI) that can be used for autonomous driving of a vehicle to the learning data generating device 200 .
  • the artificial intelligence learning device 400 may receive artificial intelligence (AI) learning data from the learning data generating device 200 .
  • the artificial intelligence learning apparatus 400 may perform machine learning on artificial intelligence (AI) that can be used for autonomous driving of a vehicle using the received artificial intelligence (AI) learning data.
  • the artificial intelligence learning device 400 may be any device capable of transmitting and receiving data to and from the learning data generating device 200 and performing calculations using the transmitted and received data.
  • the artificial intelligence learning device 400 may be any one of a fixed computing device such as a desktop, workstation, or server, but is not limited thereto.
  • the learning data collection device 100, the learning data generation device 200, a plurality of annotation devices 300, and the artificial intelligence learning device 400 are connected directly to each other through a secure line, common Data may be transmitted and received using a network in which one or more of a wired communication network or a mobile communication network is combined.
  • public wired communication networks may include Ethernet, x Digital Subscriber Line (xDSL), Hybrid Fiber Coax (HFC), and Fiber To The Home (FTTH). It may be, but is not limited thereto.
  • xDSL Digital Subscriber Line
  • HFC Hybrid Fiber Coax
  • FTTH Fiber To The Home
  • CDMA Code Division Multiple Access
  • WCDMA Wideband CDMA
  • HSPA High Speed Packet Access
  • LTE Long Term Evolution
  • 5th generation mobile telecommunication may be included, but is not limited thereto.
  • the learning data collection device 100 includes a radar 20, a lidar 30, a camera 40, and an ultrasonic sensor ( 50), it is possible to acquire, photograph or sense data for machine learning of artificial intelligence (AI).
  • AI artificial intelligence
  • the vehicle 10 is a vehicle equipped with a radar 20, a lidar 30, a camera 40, and an ultrasonic sensor 50 for collecting basic data for machine learning of artificial intelligence (AI). It can be distinguished from vehicles that perform autonomous driving by intelligence (AI).
  • the radar 20 is fixedly installed in the vehicle 10 and emits electromagnetic waves toward the driving direction of the vehicle 10, and the electromagnetic waves reflected by an object located in front of the vehicle 10 and returned. By sensing, the vehicle 10 may generate sensing data corresponding to an image of the front side.
  • the sensing data is information on points at which electromagnetic waves emitted by the radar 20 fixedly installed in the vehicle 10 toward the driving direction of the vehicle are reflected. Accordingly, the coordinates of the points included in the sensing data may have values corresponding to the position and shape of an object located in front of the vehicle 10 .
  • This sensed data may be 2D information, but is not limited thereto and may be 3D information.
  • the lidar 30 is fixedly installed on the vehicle 10, radiates a laser pulse around the vehicle 10, and detects light reflected back by an object located around the vehicle 10. , 3D point cloud data corresponding to a 3D image of the surroundings of the vehicle 10 may be generated.
  • the 3D point cloud data is three-dimensional information on points obtained by reflecting laser pulses emitted around the vehicle by the LIDAR 30 fixedly installed in the vehicle 10 . Accordingly, coordinates of points included in the 3D point cloud data may have values corresponding to the location and formation of objects located around the vehicle 10 .
  • the camera 40 is fixedly installed in the vehicle 10 and can capture a two-dimensional image of the surroundings of the vehicle 10 .
  • a plurality of cameras 40 may be configured according to the angle of view.
  • FIG. 2 shows an example in which six cameras 40 are installed in the vehicle 10, the number of cameras 40 that can be installed in the vehicle 10 can be configured according to the present invention. It will be obvious to those skilled in the art.
  • the 2D image is an image captured by the camera 40 fixed to the vehicle 10 .
  • the 2D image may include color information of an object located in a direction in which the camera 40 faces.
  • the ultrasonic sensor 50 is fixedly installed in the vehicle 50, emits ultrasonic waves around the vehicle 10, detects sound waves reflected by an object positioned adjacent to the vehicle 10 and returns, Distance information corresponding to the distance between the ultrasonic sensor 50 installed in (10) and the object may be generated.
  • a plurality of ultrasonic sensors 50 may be configured and fixedly installed at the front, rear, front and rear sides of the vehicle 10, which are easily contacted with objects.
  • the distance information is information about a distance from an object detected by the ultrasonic sensor 50 fixedly installed in the vehicle 10 .
  • FIG. 3 is one of the present invention in the examples It is a logical configuration diagram of the learning data collection device according to FIG.
  • the learning data collection device 100 includes a communication unit 105, an input/output unit 110, a multi-sensor control unit 115, a data post-processing unit 120, an error correcting unit 125, and a data control unit. It may be configured to include study 130.
  • the components of the learning data collection device 100 are only functionally distinct elements, two or more components are integrated and implemented in an actual physical environment, or one component is mutually exclusive in an actual physical environment. It could be implemented separately.
  • the communication unit 105 may transmit/receive data with multiple sensors and the learning data generating device 200 .
  • the communication unit 105 transmits detection data, 3D point cloud data, 2D image, and distance information from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 fixedly installed in the vehicle 10. can receive
  • the learning data collection device 100 and the multiple sensors may be directly connected to each other by cables for data transmission and reception, but are not limited thereto.
  • the communication unit 105 may transmit the post-processing and error correction-performed sensing data, 3D point cloud data, 2D image, and distance information to the learning data generating device 200 under the control of the data providing unit 130. .
  • the input/output unit 110 may receive a signal from a user through a user interface (UI) or output an operation result to the outside.
  • UI user interface
  • the input/output unit 110 may receive input of a threshold range from a user.
  • the critical range is a size range for determining a crowd of points that can be identified as objects among points included in the sensing data or 3D point cloud data, A value determined according to the type may be input.
  • the input/output unit 110 may receive an input of a lidar recognition range from a user.
  • the lidar recognition range is a range in which a laser pulse emitted from the lidar 30 arrives and an object can be recognized, and a value determined according to the output or type of the lidar 30 may be input.
  • the input/output unit 110 may receive input of a specific possible range from the user.
  • the specific possible range is a range in which an object can be specified from a 2D image captured by the camera 40, and includes the type of object to be targeted for machine learning of artificial intelligence (AI) and the number of minimum required pixels. A value determined according to, etc. may be input.
  • AI artificial intelligence
  • the input/output unit 110 may receive an input of a contactable range from the user.
  • the contactable range is a range in which the vehicle 10 may have a possibility of contact with another object when it behaves within a common sense range, and a value determined according to the goal of machine learning of artificial intelligence (AI) may be input. there is.
  • AI artificial intelligence
  • the input/output unit 110 may receive input of a sampling table from a user.
  • the sampling table is a table in which reference information for sampling only some data from 3D point cloud data obtained by lidar and the distance between the vehicle 10 and the object are mapped to each other.
  • the first sampling rate included in the sampling data is information about the number of 3D point cloud data to be sampled per unit time
  • the second sampling rate is information about the number of points to configure one 3D point cloud data.
  • the multi-sensor controller 115 may control the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 fixedly installed in the vehicle 10.
  • the multi-sensor controller 115 may receive one or more of sensing data, 3D point cloud data, 2D image, and distance information through the communication unit 105 .
  • the multi-sensor control unit 115 may receive sensing data through the communication unit 105 and may additionally receive one or more of 3D point cloud data, 2D image, and distance information according to circumstances.
  • the sensing data is information on points at which electromagnetic waves emitted toward the driving direction of the vehicle by the radar 20 fixedly installed in the vehicle 10 are reflected.
  • the 3D point cloud data is three-dimensional information on points obtained by reflecting laser pulses emitted around the vehicle by the LIDAR 30 fixedly installed in the vehicle 10 .
  • the 2D image is an image captured by a camera 40 fixedly installed in the vehicle 10 .
  • the distance information is information about a distance from an object detected by the ultrasonic sensor 50 fixedly installed in the vehicle 10 .
  • the multi-sensor controller 115 may identify an object from the received sensing data.
  • the multi-sensor control unit 125 may identify an object from the sensing data by extracting points forming a cluster within a threshold range previously set by the input/output unit 110 from among the points included in the sensing data. there is.
  • the multi-sensor control unit 115 corresponds to the distance between the vehicle 10 and the object identified from the sensing data, the lidar 30 fixed to the vehicle 10 to emit laser pulses, and the camera to take a 2D image ( 40) and at least one of the ultrasonic sensor 50 to emit ultrasonic waves.
  • the multi-sensor controller 115 may control the lidar 30 not to interrupt the laser pulse when no object is identified from the sensing data.
  • the multi-sensor control unit 115 prevents the lidar 30 from emitting a laser pulse, or It can be controlled to emit laser pulses only with the intensity set in .
  • the multi-sensor control unit 115 When the distance between the vehicle 10 and the object is greater than the LIDAR recognition range, the multi-sensor control unit 115 does not capture 2D images from the plurality of cameras 40 fixed to the vehicle 10, and the ultrasonic sensor 50 ) can be controlled so that it does not emit ultrasonic waves.
  • the multi-sensor control unit 115 lengthens or shortens the laser pulse radiation period of the lidar 30 in proportion to the distance from the object. You can control it.
  • the multi-sensor control unit 115 detects a 2D image by a plurality of cameras 40 fixed to the vehicle 10. can be controlled to shoot.
  • the specific possible range may correspond to a narrower range than the LIDAR recognition range.
  • the multi-sensor controller 115 may differently set resolutions of 2D images to be captured by the plurality of cameras 40 in correspondence to the distance between the vehicle 10 and the object. For example, the multi-sensor controller 115 may set the resolution of a 2D image to be captured by the plurality of cameras 40 to increase as the distance between the vehicle 10 and the object decreases.
  • the multi-sensor control unit 115 may estimate the moving path of the object based on the time-sequential position change of the object included in the sensing data.
  • the multi-sensor controller 115 may identify a camera that photographs a direction corresponding to the estimated movement path of the object from among the plurality of cameras 40 .
  • the multi-sensor controller 115 may set a shorter shooting cycle of a camera that captures a direction corresponding to the moving path of the object than a camera that captures other directions.
  • the multi-sensor control unit 115 provides a plurality of ultrasonic sensors 50 fixed to the vehicle 10 when the distance between the vehicle 10 and the object is within a contactable range preset through the input/output unit 110. They can be controlled to emit ultrasonic waves.
  • the possible contact range may correspond to a narrower range than the specific possible range.
  • the data post-processing unit 120 collects detection data, 3D point cloud data, 2D image, and distance information from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 as targets. Post-processing can be done.
  • the data post-processing unit 120 may receive one or more of sensing data, 3D point cloud data, 2D images, and distance information through the communication unit 105 .
  • the data post-processing unit 120 may receive sensing data and 3D point cloud data through the communication unit 105, and may additionally receive one or more of 2D images and distance information depending on circumstances.
  • the data post-processing unit 120 may identify an object from the received sensing data.
  • the data post-processing unit 125 may identify an object from the sensing data by extracting points forming a cluster within a threshold range previously set by the input/output unit 110 from among the points included in the sensing data. there is.
  • the data post-processing unit 120 selects an area to which the laser pulse of the LIDAR 30 can reach, centered on the area where the identified object is located among the coordinates included in the 3D point cloud data, as a region of interest (ROI). interest) and regions of uninterested.
  • ROI region of interest
  • the data post-processing unit 120 corresponds to the distance between the vehicle 10 and the object identified from the sensing data, the plurality of 3D point cloud data obtained by the lidar 30 and the plurality of points photographed by the camera 40
  • One or more of the 2D images of and distance information sensed by the ultrasonic sensor 50 may be filtered.
  • the data post-processing unit 120 may identify a first sampling rate corresponding to the distance between the vehicle 10 and the object from the sampling table previously set by the input/output unit 110. .
  • the data post-processing unit 120 may reduce the number of 3D point cloud data per unit time by sampling a plurality of 3D point cloud data according to the identified first sampling rate.
  • the data post-processing unit 120 may identify a second sampling rate corresponding to the distance between the vehicle 10 and the object from the sampling table.
  • the data post-processing unit 120 may reduce the number of points constituting each 3D point cloud data by sampling a plurality of 3D point cloud data according to the identified second sampling rate.
  • the data post-processing unit 120 converts 2D images captured by the camera 40 that captures the region of interest from among a plurality of 2D images to 2D images captured by the camera 40 that captures the region of interest. It can be recompressed to a lower resolution.
  • the data post-processing unit 120 may reduce the number of 2D images per unit time by sampling 2D images captured by the camera 40 that captures the region of interest among a plurality of 2D images.
  • the data post-processing unit 120 expands the size of chroma subsampling for compressing color information of 2D images captured by the camera 40 that captures the region of interest among a plurality of 2D images, and then reproduces the data post-processing unit 120. can be compressed.
  • the data post-processing unit 120 discards the distance information detected by the ultrasonic sensor 50 when the distance between the vehicle 10 and the object is longer than a specific possible range previously set through the input/output unit 110. may be
  • the error correcting unit 125 may correct errors according to installation positions of the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 fixedly installed in the vehicle 10. .
  • the error correction unit 125 may receive one or more of sensing data, 3D point cloud data, 2D images, and distance information through the communication unit 105 .
  • the data post-processing unit 120 may receive sensing data and 3D point cloud data through the communication unit 105, and may additionally receive one or more of 2D images and distance information depending on circumstances.
  • the error correction unit 125 may identify a first point where the radar 20 fixedly installed in the vehicle 10 emits an electromagnetic wave signal. That is, the first point means a point where the radar 20 is fixedly installed in the vehicle 10 . If a plurality of radars 20 are installed in the vehicle 10, the number of first points may also be plural.
  • the error correction unit 125 may identify a second point where the LIDAR 30 fixedly installed in the vehicle 10 emits a laser pulse. That is, the second point means a point where the lidar 30 is fixedly installed in the vehicle 10 . If a plurality of lidars 30 are installed in the vehicle 10, the number of second points may also be plural.
  • Such a first point and a second point may be set in advance according to the model and size of the vehicle 10 in which the radar 20 and the lidar 30 are fixedly installed, the learning goal of artificial intelligence (AI), and the like, , but not limited thereto.
  • AI artificial intelligence
  • the error correction unit 125 may correct coordinates of points included in the sensed data and coordinates of points included in the 3D point cloud data so that the identified first and second points may be recognized as the same position.
  • the error correction unit 125 may identify an object from sensing data.
  • the error correction unit 125 may identify an object from the sensing data by extracting points forming a cluster within a threshold range previously set by the input/output unit 110 from among the points included in the sensing data. there is.
  • the error correction unit 125 corrects the coordinates of the points included in the sensed data and the coordinates of the points included in the 3D point cloud data only when an object is identified from the sensed data, and when no object is identified from the sensed data, the error corrector 125 corrects the coordinates of the points included in the sensed data
  • the coordinates of the points included in the data and the coordinates of the points included in the 3D point cloud data can be maintained as they are.
  • the error correction unit 125 sets a virtual standard point having three-dimensional coordinates, and then coordinates of points included in the sensing data so that the first point and the second point are recognized as being located at the reference point. and coordinates of points included in 3D point cloud data can be corrected.
  • the error compensating unit 125 recognizes that the first and second points are located at the reference point, so that the points included in the detected data The coordinates of points and the coordinates of points included in 3D point cloud data can be corrected.
  • the sensing data obtained by the radar 20 and the 3D point cloud data obtained by the LIDAR 30 are composed of coordinates of points where electromagnetic waves or laser pulses are reflected, and observation points (ie, observation points) through correction of coordinate values. , the first point and the second point) can be matched.
  • the error correction unit 125 provides a formula for correcting the first point of the radar 20 and the second point of the LIDAR 30 to the point where the camera 40 captures the 2D image. can do.
  • the error correcting unit 125 may calculate 3D vector values between respective photographing points where the plurality of cameras 40 are installed and a reference point.
  • the error correction unit 125 calculates a formula for correcting sensing data or 3D point cloud data so that the first point or the second point can be recognized as being located at each imaging point, based on the calculated 3D vector values. can be derived.
  • the error correcting unit 125 provides a 3D image regardless of whether the lidar 30 fixed to the vehicle 10 corresponds to a static lidar or a rotative lidar. It can be calibrated to handle point cloud data.
  • the error compensating unit 125 is a case where the lidar 30 fixedly installed in the vehicle 10 is composed of a plurality of fixed lidar devices installed spaced apart from each other at different points in the vehicle 10, a plurality of lidar By combining the coordinates of the points included in the 3D point cloud data acquired by the device, one 3D point cloud data having a spherical shape obtained by a rotary lidar that rotates around a reference point and emits laser pulses is generated can do.
  • the error correction unit 125 is configured as a rotary lidar device in which the lidar 30 fixedly installed in the vehicle 10 rotates around the second point and emits laser pulses.
  • the lidar 30 fixedly installed in the vehicle 10 rotates around the second point and emits laser pulses.
  • the error correction unit 125 may correct distance values included in the distance information so that each sensing point where the plurality of ultrasonic sensors 50 are installed is recognized as being located at a reference point.
  • the data providing unit 130 may provide basic data that can be used for machine learning of artificial intelligence (AI) to the learning data generating device 200 .
  • AI artificial intelligence
  • the data providing unit 130 provides sensing data, 3D point cloud data, After the 2D image and distance information are collected, and the collected sensing data, 3D point cloud data, 2D image, and distance information are post-processed by the data post-processing unit 120, the post-processed sensing data, 3D point cloud data, 2D image, and When the distance information is corrected by the error correction unit 125, the corrected sensing data, 3D point cloud data, 2D image, and distance information may be transmitted to the learning data generating device 200 through the communication unit 105.
  • FIG. 4 is one of the present invention in the examples It is a hardware configuration diagram of the learning data collection device according to FIG.
  • the learning data collection device 100 includes a processor (150), a memory (155), a transceiver (160), an input/output device (165), and a data bus. (Bus, 170) and storage (Storage, 175) can be configured.
  • the processor 150 may implement the operation and function of the learning data collection device 100 based on instructions according to the software 180a in which the method according to the embodiments of the present invention is resident in the memory 155. .
  • Software 180a in which a method according to embodiments of the present invention is implemented may be loaded in the memory 155 .
  • the transceiver 160 may transmit and receive data to and from the radar 20 , lidar 30 , camera 40 , ultrasonic sensor 50 , and learning data generating device 200 .
  • the input/output device 165 may receive data required for operation of the learning data collection device 100 and output collected sensing data, 3D point cloud data, 2D image, and distance information.
  • the data bus 170 is connected to the processor 150, the memory 155, the transceiver 160, the input/output device 165, and the storage 175, and is a movement path for transferring data between each component. role can be fulfilled.
  • the storage 175 stores an application programming interface (API), a library file, a resource file, etc. necessary for the execution of the software 180a in which the method according to the embodiments of the present invention is implemented. can be saved
  • the storage 175 may store software 180b in which a method according to embodiments of the present invention is implemented. Also, the storage 175 may store information necessary for performing a method according to embodiments of the present invention.
  • the software 180a, 180b for implementing a learning data collection method using a laser preview resident in the memory 155 or stored in the storage 175 is provided by the processor 150 in the vehicle 10 ) receiving sensing data from a radar 20 fixedly installed through the transceiver 160, identifying an object from the received sensing data by a processor 150, and identifying the identified object by a processor 150
  • the processor 150 may be a computer program recorded on a recording medium to execute the step of controlling the lidar 30 that is fixedly installed in the vehicle and emits laser pulses.
  • the software (180a, 180b) for implementing a data processing method resident in the memory 155 or stored in the storage 175 is a radar in which the processor 150 is fixed to the vehicle 10 Receiving the sensing data obtained by (20) and a plurality of 3D point cloud data obtained by the LIDAR 30 fixedly installed in the vehicle 10 through the transceiver 160, the processor 150 Identifying an object from the received sensing data, and the processor 150 corresponding to the distance between the vehicle 10 and the object, a plurality of 3D point cloud data acquired by the lidar 30 It may be a computer program recorded on a recording medium to execute the step of filtering them.
  • the software (180a, 180b) for implementing the error correction method resident in the memory 155 or stored in the storage 175 is a processor 150 fixedly installed in the vehicle 10 Receiving sensing data obtained by the radar 20 and 3D point cloud data obtained by the LIDAR 30 fixedly installed in the vehicle 10 through the transceiver 160, wherein the processor 150 performs the Identifying a first point where the radar 20 emits an electromagnetic wave signal and identifying a second point where the lidar 30 emits a laser pulse, and the processor 150 determines the first point and the It may be a computer program recorded on a recording medium to execute the step of correcting the coordinates of the points included in the sensed data and the coordinates of the points included in the 3D point cloud data so that the second points are recognized as the same position. there is.
  • the processor 150 may include an Application-Specific Integrated Circuit (ASIC), another chipset, a logic circuit, and/or a data processing device.
  • the memory 155 may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices.
  • the transceiver 160 may include a baseband circuit for processing wired/wireless signals.
  • the input/output device 165 includes an input device such as a keyboard, a mouse, and/or a joystick, and a Liquid Crystal Display (LCD), an Organic LED (OLED), and/or a liquid crystal display (LCD).
  • an image output device such as an active matrix OLED (AMOLED) may include a printing device such as a printer or a plotter.
  • AMOLED active matrix OLED
  • a module may reside in memory 155 and be executed by processor 150 .
  • the memory 155 may be internal or external to the processor 150 and may be connected to the processor 150 by various well-known means.
  • Each component shown in FIG. 4 may be implemented by various means, eg, hardware, firmware, software, or a combination thereof.
  • one embodiment of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), FPGAs ( Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, etc.
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • processors controllers, microcontrollers, microprocessors, etc.
  • an embodiment of the present invention is implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above, and is stored on a recording medium readable through various computer means.
  • the recording medium may include program commands, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software.
  • recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs (Compact Disk Read Only Memory) and DVDs (Digital Video Disks), floptical It includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, such as a floptical disk, and ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. These hardware devices may be configured to operate as one or more pieces of software to perform the operations of the present invention, and vice versa.
  • Fig. 5 degree 7 is one of the present invention in the examples It is an exemplary view for explaining a process of controlling multiple sensors according to the
  • the learning data collection device 100 includes a radar 20, a lidar 30, a camera 40 and The ultrasonic sensor 50 may be controlled.
  • the learning data collection device 100 receives one or more of sensing data, 3D point cloud data, 2D image, and distance information from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 can do.
  • the sensing data is information on points at which electromagnetic waves emitted toward the driving direction of the vehicle by the radar 20 fixedly installed in the vehicle 10 are reflected.
  • the 3D point cloud data is three-dimensional information on points obtained by reflecting laser pulses emitted around the vehicle by the LIDAR 30 fixedly installed in the vehicle 10 .
  • the 2D image is an image captured by a camera 40 fixedly installed in the vehicle 10 .
  • the distance information is information about a distance from an object detected by the ultrasonic sensor 50 fixedly installed in the vehicle 10 .
  • the learning data collection device 100 may identify the object 60 from the received sensing data.
  • the learning data collection apparatus 100 may identify the object 60 from the sensing data by extracting points forming a cluster within a preset threshold range from points included in the sensing data.
  • the learning data collection device 100 corresponds to the distance d between the vehicle 10 and the object 60, and is fixedly installed in the vehicle 10 to radiate laser pulses, LiDAR 30, and to capture 2D images. At least one of the camera 40 and the ultrasonic sensor 50 to emit ultrasonic waves may be controlled.
  • the lidar 30 when the distance d between the vehicle 10 and the object 60 is greater than the lidar recognition range 31, the lidar 30 does not emit laser pulses.
  • the laser pulse may be controlled to be emitted only with a preset intensity.
  • the ultrasonic sensor 50 when the distance d between the vehicle 10 and the object 60 is greater than the lidar recognition range 31, the plurality of cameras 40 do not capture 2D images, , the ultrasonic sensor 50 may be controlled not to emit ultrasonic waves.
  • the learning data collection device 100 is a lidar in proportion to the distance d from the object 60.
  • the laser pulse radiation period of (30) can be controlled to be long or short.
  • the learning data collection device 100 When the distance d between the vehicle 10 and the object 60 is within a specific possible range 41, the learning data collection device 100 generates a 2D image by a plurality of cameras 40 fixed to the vehicle 10. can be controlled to shoot.
  • the specific possible range 41 may correspond to a narrower range than the lidar recognition range 31 .
  • the learning data collection apparatus 100 may set different resolutions of 2D images to be captured by the plurality of cameras 40 in correspondence to the distance d between the vehicle 10 and the object 60 .
  • the learning data collection device 100 estimates the movement path of the object 60 based on the time-series position change of the object 60 included in the sensing data, and photographs a direction corresponding to the estimated movement path of the object 60. It is possible to identify a camera that captures the object 60 and set a shorter shooting cycle of a camera that shoots a direction corresponding to the moving path of the object 60 than a camera that shoots another direction.
  • the learning data collection device 100 uses a plurality of ultrasonic sensors 50 fixedly installed in the vehicle 10 to transmit ultrasonic waves. can be controlled to fire.
  • the possible contact range 51 may correspond to a narrower range than the specific possible range 41 .
  • the learning data collection apparatus 100 controls the data collection period of multiple sensors or the quality of data to be collected, so that among data for machine learning of artificial intelligence (AI), the importance is relatively low. data can be reduced.
  • AI artificial intelligence
  • the learning data collection device 100 includes a radar 20, a lidar 30, a camera 40 and Post-processing may be performed on the sensing data, 3D point cloud data, 2D image, and distance information collected from the ultrasonic sensor 50 .
  • the learning data collection apparatus 100 detects sensing data, 3D point cloud data, and 2D images from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. and distance information may be received.
  • the learning data collection device 100 may identify the object 60 from the received sensing data.
  • the learning data collection apparatus 100 may identify the object 60 from the sensing data by extracting points forming a cluster within a preset threshold range from points included in the sensing data.
  • the learning data collection apparatus 100 sets the region to which the laser pulse of the lidar 30 can reach, centered on the region where the identified object 60 is located among the coordinates included in the 3D point cloud data, as the region of interest ( ROI) and non-interest regions.
  • the learning data collection apparatus 100 corresponds to the distance between the vehicle 10 and the object 60, a plurality of 3D point cloud data obtained by the lidar 30, and a plurality of points photographed by the camera 40.
  • One or more of 2D images and distance information sensed by the ultrasonic sensor 50 may be filtered.
  • the learning data collection device 100 identifies a first sampling rate corresponding to the distance between the vehicle 10 and the object 60 from the sampling table, and generates a plurality of 3D images according to the identified first sampling rate.
  • the number of 3D point cloud data per unit time may be reduced by sampling the point cloud data.
  • the learning data collection apparatus 100 identifies a second sampling rate corresponding to the distance between the vehicle 10 and the object 60 from the sampling table, and generates a plurality of 3D point cloud data according to the identified second sampling rate. It is possible to reduce the number of points constituting each 3D point cloud data by sampling them.
  • the learning data collection apparatus 100 selects the 2D images captured by the camera 40 that captures the region of interest among a plurality of 2D images captured by the plurality of cameras 40 as a region of interest (ROI).
  • the 2D images captured by the camera 40 may be recompressed to a resolution lower than that of the 2D images.
  • the training data collection apparatus 100 may reduce the number of 2D images per unit time by sampling 2D images captured by the camera 40 that captures a region of interest among a plurality of 2D images.
  • the learning data collection apparatus 100 may recompress after expanding the size of chroma subsampling for compressing color information of 2D images captured by the camera 40 that captures a region of non-interest among a plurality of 2D images. there is.
  • the learning data collection device 100 may discard distance information detected by the ultrasonic sensor 50 .
  • the learning data collection apparatus 100 filters data collected by multiple sensors to reduce data of relatively low importance among machine learning data of artificial intelligence (AI). can As a result, by reducing the amount of data of relatively low importance, it is possible to lower the burden of data processing for machine learning of artificial intelligence (AI).
  • Fig. 10 degree 12 is one of the present invention in the examples the error of multiple sensors according to correcting It is an example diagram to explain the process.
  • the learning data collection device 100 includes a radar 20, a lidar 30, a camera 40 and An error according to the installation position of the ultrasonic sensor 50 may be corrected.
  • the learning data collection apparatus 100 detects sensing data, 3D point cloud data, and 2D images from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. and distance information may be received.
  • the learning data collection device 100 may identify a first point 25 from which the radar 20 fixedly installed in the vehicle 10 emits an electromagnetic wave signal. That is, the first point 25 means a point where the radar 20 is fixedly installed in the vehicle 10 . If a plurality of radars 20 are installed in the vehicle 10, the number of first points 25 may also be plural.
  • the learning data collection device 100 may identify a second point 35 where the LIDAR 30 fixedly installed in the vehicle 10 emits a laser pulse. That is, the second point 35 means a point where the LIDAR 30 is fixedly installed in the vehicle 10 . If a plurality of lidars 30 are installed in the vehicle 10, the number of second points 35 may also be plural.
  • the learning data collection device 100 determines the coordinates of the points included in the sensing data and the points included in the 3D point cloud data so that the identified first point 25 and the second point 35 can be recognized as the same position. Coordinates can be corrected. More specifically, after setting a virtual standard point having three-dimensional coordinates, the learning data collection device 100 recognizes that the first point 25 and the second point 35 are located at the reference point. The coordinates of the points included in the sensing data and the coordinates of the points included in the 3D point cloud data may be corrected as much as possible.
  • the learning data collection apparatus 100 calculates 3D vector values between each of the photographing points 45 where the plurality of cameras 40 are installed and the reference point, and based on the calculated 3D vector values, An equation capable of correcting sensed data or 3D point cloud data may be derived so that the first point 25 or the second point 35 may be recognized as being located at each imaging point 45 .
  • the learning data collection device 100 is composed of a plurality of fixed lidar devices installed at different points in the vehicle 10 and spaced apart from each other in the lidar 30 fixed to the vehicle 10, a plurality of lidar devices Combining the coordinates of the points included in the 3D point cloud data acquired by can
  • the learning data collection device 100 is a rotary lidar device when the lidar 30 fixed to the vehicle 10 rotates around the second point and emits laser pulses.
  • the coordinates of the points included in one 3D point cloud data obtained by are separated into a plurality of points based on the direction in which the laser pulse was emitted, and a plurality of 3D point cloud data each having a form obtained by a plurality of fixed lidar devices. can also create
  • the learning data collection device 100 can directly apply the location of an object recognized by a specific sensor to data obtained from other sensors by correcting errors according to the installation positions of multiple sensors. there will be As a result, it is possible to integrate and manage annotation work results for data individually obtained by multiple sensors.
  • 13 is one of the present invention in the examples to explain data collection methods according to is a flowchart .
  • the learning data collection apparatus 100 detects data and 3D point cloud data from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. , 2D image and distance information may be received (S100).
  • the learning data collection device 100 identifies an object from the received sensing data, and is fixedly installed in the vehicle 10 to emit laser pulses in response to the distance between the identified object and the vehicle 10 (30). ), at least one of the camera 40 to capture a 2D image and the ultrasonic sensor 50 to emit ultrasonic waves (S200).
  • a detailed description of the process of controlling the lidar 30, the camera 40, and the ultrasonic sensor 50 by the learning data collection device 100 is the same as that described with reference to FIGS. 5 to 7, so it will not be described repeatedly. .
  • the learning data collection device 100 performs post-processing on detection data, 3D point cloud data, 2D image, and distance information received from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. It can be performed (S300).
  • the learning data collection device 100 may correct errors according to installation positions of the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 (S400).
  • the learning data collection device 100 detects errors in detection data, 3D point cloud data, 2D image, and distance information according to the installation positions of the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. Since the detailed description of the correction process is the same as that described with reference to FIGS. 10 to 12, it will not be described repeatedly.
  • the learning data collection device 100 may transmit the corrected sensing data, 3D point cloud data, 2D image, and distance information to the learning data generating device 200 (S500).

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention proposes a training data collection method using a laser preview, which collects data for machine training of artificial intelligence (AI). The method may comprise the steps of: a training data collection apparatus receiving detected data from a radar fixedly installed on a vehicle; the training data collection apparatus identifying an object from the received detected data; and the training data collection apparatus controlling, in correspondence to the distance between the vehicle and the identified object, LiDar that is fixedly installed on the vehicle and is to radiate laser pulses. According to the present invention described above, it is possible to reduce data having relatively low importance from among pieces of data for machine training of artificial intelligence (AI) by controlling a data collection period of multiple sensors installed in a vehicle, which collect data for machine training artificial intelligence (AI) that may be used for autonomous driving, or the quality of data to be collected.

Description

레이저 프리뷰를 이용한 학습 데이터 수집 방법 및 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램Learning data collection method using laser preview and computer program recorded on a recording medium to execute
본 발명은 인공지능(Artificial Intelligence, AI) 학습용 데이터의 가공에 관한 것이다. 보다 상세하게는, 인공지능(AI)의 기계 학습용 데이터를 수집함에 있어서, 레이저 프리뷰를 이용한 학습 데이터 수집 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램에 관한 것이다.The present invention relates to the processing of artificial intelligence (AI) learning data. More specifically, in collecting data for machine learning of artificial intelligence (AI), it relates to a learning data collection method using a laser preview and a computer program recorded on a recording medium to execute the method.
인공지능(AI)은 인간의 학습능력, 추론능력 및 지각능력 등의 일부 또는 전부를 컴퓨터 프로그램을 이용하여 인공적으로 구현하는 기술을 의미한다. 인공지능(AI)과 관련하여, 기계 학습(machine learning)은 다수의 파라미터로 구성된 모델을 이용하여 주어진 데이터로 파라미터를 최적화하는 학습을 의미한다. 이와 같은, 기계 학습은 학습용 데이터의 형태에서 따라, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 및 강화 학습(reinforcement learning)으로 구분된다.Artificial intelligence (AI) refers to a technology that artificially implements some or all of human learning abilities, reasoning abilities, and perception abilities using computer programs. In relation to artificial intelligence (AI), machine learning refers to learning to optimize parameters with given data using a model composed of multiple parameters. Such machine learning is classified into supervised learning, unsupervised learning, and reinforcement learning according to the form of learning data.
일반적으로, 인공지능(AI) 학습용 데이터의 설계는 데이터 구조의 설계, 데이터의 수집, 데이터의 정제, 데이터의 가공, 데이터의 확장 및 데이터의 검증 단계로 진행된다.In general, designing data for artificial intelligence (AI) learning proceeds in the steps of data structure design, data collection, data refinement, data processing, data expansion, and data verification.
각각의 단계에서 대하여 보다 구체적으로 설명하면, 데이터 구조의 설계는 온톨로지(ontology) 정의, 분류 체계의 정의 등을 통해 이루어진다. 데이터의 수집은 직접 촬영, 웹 크롤링(web crawling) 또는 협회/전문 단체 등을 통해 데이터를 수집하여 이루어진다. 데이터 정제는 수집된 데이터 내에서 중복 데이터를 제거하고, 개인 정보 등을 비식별화하여 이루어진다. 데이터의 가공은 어노테이션(annotation)을 수행하고, 메타데이터(metadata)를 입력하여 이루어진다. 데이터의 확장은 온톨로지 매핑(mapping)을 수행하고, 필요에 따라 온톨로지를 보완하거나 확장하여 이루어진다. 그리고, 데이터의 검증은 다양한 검증 도구를 활용하여 설정된 목표 품질에 따른 유효성을 검증하여 이루어진다.To describe each step in more detail, data structure design is performed through ontology definition, classification system definition, and the like. Data collection is performed by collecting data through direct filming, web crawling, or associations/professional organizations. Data purification is performed by removing redundant data from collected data and de-identifying personal information. Data processing is performed by performing annotation and inputting metadata. Data extension is performed by performing ontology mapping and supplementing or extending the ontology as needed. In addition, data verification is performed by verifying validity according to the set target quality using various verification tools.
한편, 차량의 자율주행(automatic driving)은 차량 스스로 판단하여 주행할 수 있는 시스템을 의미한다. 이와 같은, 자율주행은 시스템이 주행에 관여하는 정도와 운전차가 차량을 제어하는 정도에 따라 비자동화부터 완전 자동화까지 점진적인 단계로 구분될 수 있다. 일반적으로, 자율주행의 단계는 국제자동차기술자협회(SAE(Society of Automotive Engineers) International)에서 분류한 6단계의 레벨로 구분된다. 국제자동차기술자협회가 분류한 6단계에 따르면, 레벨 0단계는 비자동화, 레벨 1단계는 운전자 보조, 레벨 2단계는 부분 자동화, 레벨 3단계는 조건부 자동화, 레벨 4단계는 고도 자동화, 그리고 레벨 5단계는 완전 자동화 단계이다.On the other hand, autonomous driving of a vehicle refers to a system that can judge and drive a vehicle by itself. Such autonomous driving may be classified into gradual stages from non-automation to complete automation according to the degree of involvement of the system in driving and the degree of control of the vehicle by the driver. In general, the level of autonomous driving is divided into six levels classified by the Society of Automotive Engineers (SAE) International. According to the six levels classified by the International Association of Automotive Engineers, level 0 is non-automation, level 1 is driver assistance, level 2 is partial automation, level 3 is conditional automation, level 4 is highly automated, and level 5 The steps are fully automated steps.
차량의 자율주행은 인지(perception), 측위(localization), 경로 계획(path planning) 및 제어(control)의 메커니즘을 통해 수행된다. 현재 여러 기업체들은 자율주행 메커니즘 중에서 인지 및 경로 계획을 인공지능(AI)을 이용하여 구현하기 위해 개발 중에 있다. Autonomous driving of vehicles is performed through mechanisms of perception, localization, path planning, and control. Currently, several companies are developing to implement recognition and path planning among autonomous driving mechanisms using artificial intelligence (AI).
이러한 차량의 자율주행에 사용될 수 있는 인공지능(AI)의 기계 학습에 사용되는 데이터는 차량에 설치된 다양한 종류의 센서에 의해 수집된다. 예를 들어, 차량의 자율주행에 사용될 수 있는 인공지능(AI)의 기계 학습에 사용되는 데이터들은 차량에 고정 설치된 라이다(lidar), 카메라(camera), 레이더(radar) 및 초음파 센서(ultrasonic sensor)에 의해 획득, 촬영 또는 감지된 데이터들이 될 수 있으며, 이에 한정되는 것도 아니다.Data used for machine learning of artificial intelligence (AI) that can be used for autonomous driving of these vehicles is collected by various types of sensors installed in the vehicle. For example, the data used for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle are lidar, camera, radar, and ultrasonic sensor fixed to the vehicle. ) may be acquired, photographed, or sensed data by, but is not limited thereto.
그러나, 차량에 설치된 다양한 센서에 의해 연속적으로 획득, 촬영 또는 측정된 모든 데이터들 속에 인공지능(AI)의 학습 대상이 되는 객체가 포함되어 있는 것은 아니다. 즉, 다양한 센서에 의해 연속적으로 획득, 촬영 또는 측정된 모든 데이터들 중에는 자율주행에 사용될 수 있는 인공지능(AI)의 기계 학습에 무의미한 데이터들이 다수 포함되어 있다.However, not all data continuously acquired, photographed, or measured by various sensors installed in a vehicle include an object to be learned by artificial intelligence (AI). That is, among all data continuously acquired, photographed, or measured by various sensors, a large number of data that are meaningless for machine learning of artificial intelligence (AI) that can be used for autonomous driving are included.
또한, 인공지능(AI)의 기계 학습에 사용되는 데이터들을 획득, 촬영 또는 측정하기 위한 다양한 센서들은 물리적으로 동일한 하나의 지점에 설치될 수 없으며, 여러 지점들에 이격되어 제각각 설치될 수밖에 없다. 따라서, 다양한 센서들에 의해 획득, 촬영 또는 측정된 데이터들은 각각의 센서가 설치된 위치에 따라 서로 차이를 가질 수밖에 없다.In addition, various sensors for acquiring, photographing, or measuring data used for machine learning of artificial intelligence (AI) cannot be physically installed at the same point, but must be spaced apart from each other and installed separately. Accordingly, data acquired, photographed, or measured by various sensors inevitably have differences depending on the location where each sensor is installed.
본 발명의 일 목적은 차량의 자율주행에 사용될 수 있는 인공지능(AI)의 기계 학습용 데이터를 수집함에 있어서, 레이저 프리뷰를 이용한 학습 데이터 수집 방법을 제공하는 것이다.One object of the present invention is to provide a method for collecting learning data using laser preview in collecting data for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle.
본 발명의 다른 목적은 인공지능(AI)의 기계 학습용 데이터를 수집함에 있어서, 레이저 프리뷰를 이용한 학습 데이터 수집 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제공하는 것이다.Another object of the present invention is to provide a computer program recorded on a recording medium to execute a learning data collection method using laser preview in collecting data for machine learning of artificial intelligence (AI).
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 인공지능(AI)의 기계 학습용 데이터를 수집하기 위한 다중 센서를 효과적으로 제어할 수 있는 방법을 제안한다. 상기 방법은 학습 데이터 수집 장치가 차량에 고정 설치된 레이 그리고, 상기 컴퓨터 프로그램은 상기 프로세서가 차량에 고정 설치된 레이더(radar)로부터 감지 데이터를 상기 송수신기를 통해 수신하는 단계; 상기 프로세서가 상기 수신된 감지 데이터로부터 객체의 식별하는 단계; 및 상기 프로세서가 상기 식별된 객체로부터의 거리에 대응하여, 상기 차량에 고정 설치되어 레이저 펄스를 방사할 라이다(lidar)를 제어하는 단계를 실행시키기 위하여, 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다. In order to achieve the technical problem as described above, the present invention proposes a method for effectively controlling multiple sensors for collecting data for machine learning of artificial intelligence (AI). The method includes the steps of receiving, through the transceiver, sensing data from a ray in which a learning data collection device is fixed to a vehicle, and a radar in which the processor is fixed to the vehicle; identifying, by the processor, an object from the received sensing data; And it may be a computer program recorded on a recording medium so that the processor executes the step of controlling a lidar that is fixedly installed in the vehicle and emits laser pulses in response to the distance from the identified object. there is.
기타 실시 예들의 구체적인 사항들은 상세한 설명 및 도더(radar)로부터 감지 데이터를 수신하는 단계; 상기 학습 데이터 수집 장치가 상기 수신된 감지 데이터로부터 객체를 식별하는 단계; 및 상기 학습 데이터 수집 장치가 상기 차량과 상기 식별된 객체 사이의 거리에 대응하여, 상기 차량에 고정 설치되어 레이저 펄스를 방사할 라이다(lidar)를 제어하는 단계를 포함할 수 있다. 이 경우, 상기 감지 데이터는 상기 레이더에 의해 상기 차량의 주행 방향을 향하여 발사된 전자기파 신호를 반사시킨 점들(points)에 대한 정보가 될 수 있다.Details of other embodiments include receiving sensing data from detailed descriptions and radars; identifying an object from the received sensing data by the learning data collection device; and controlling, by the learning data collection device, a lidar fixedly installed in the vehicle to emit laser pulses in response to a distance between the vehicle and the identified object. In this case, the detection data may be information on points at which the electromagnetic wave signal emitted by the radar toward the driving direction of the vehicle is reflected.
구체적으로, 상기 객체를 식별하는 단계는 상기 감지 데이터에 포함된 점들 중에서 사전에 설정된 임계 범위 내에서 군집(crowd)을 형성하고 있는 점들을 추출하여 상기 객체를 식별할 수 있다.In detail, in the identifying the object, the object may be identified by extracting points forming a crowd within a preset threshold range from points included in the sensed data.
상기 라이다를 제어하는 단계는 상기 감지 데이터로부터 어떠한 객체도 식별되지 않은 경우, 상기 라이다가 상기 레이저 펄스를 방사하지 않도록 제어할 수 있다.In the controlling of the lidar, when no object is identified from the sensing data, the lidar may be controlled not to emit the laser pulse.
상기 라이다를 제어하는 단계는 상기 차량과 상기 객체 사이의 거리가 사전에 설정된 라이다 인식 범위보다 먼 경우, 상기 라이다가 상기 레이저 펄스를 방사하지 않거나, 또는 사전에 설정된 세기로만 상기 레이저 펄스를 방사하도록 제어할 수 있다. In the controlling of the lidar, when the distance between the vehicle and the object is greater than a preset lidar recognition range, the lidar does not emit the laser pulse or emits the laser pulse only with a preset intensity. It can be controlled to emit.
상기 라이다를 제어하는 단계는 상기 차량과 상기 객체 사이의 거리가 상기 라이다 인식 범위 이내인 경우, 상기 객체로부터의 거리에 비례하여 상기 라이다의 레이저 펄스 방사 주기(period)를 길게 하거나 또는 짧게 제어할 수 있다. 상기 라이다를 제어하는 단계는 상기 차량과 상기 객체 사이의 거리가 사전에 설정된 특정 가능 범위 이내인 경우, 상기 차량에 고정 설치된 복수 개의 카메라들이 2D 이미지를 촬영하도록 제어할 수 있다. 이 경우, 상기 특정 가능 범위는 상기 라이다 인식 범위보다 좁은 범위에 해당된다.In the step of controlling the lidar, when the distance between the vehicle and the object is within the lidar recognition range, the laser pulse radiation period of the lidar is lengthened or shortened in proportion to the distance from the object. You can control it. In the controlling of the lidar, when the distance between the vehicle and the object is within a predetermined range, a plurality of cameras fixed to the vehicle may be controlled to capture 2D images. In this case, the specific possible range corresponds to a narrower range than the lidar recognition range.
상기 라이다를 제어하는 단계는 상기 차량과 상기 객체 사이의 거리에 대응하여, 상기 복수 개의 카메라들이 촬영할 2D 이미지의 해상도(resolution)를 다르게 설정할 수 있다.In the controlling of the LIDAR, a resolution of a 2D image to be photographed by the plurality of cameras may be differently set in correspondence to a distance between the vehicle and the object.
상기 라이다를 제어하는 단계는 상기 감지 데이터에 포함된 객체의 시계열적 위치 변화를 기초로 상기 객체의 이동 경로를 추정하고, 상기 복수 개의 카메라들 중에서 상기 추정된 이동 경로에 대응하는 방향을 촬영하는 카메라의 촬영 주기를 다른 방향을 촬영하는 카메라보다 짧게 설정할 수 있다.The controlling of the lidar includes estimating a movement path of the object based on a time-sequential change in position of the object included in the sensing data, and photographing a direction corresponding to the estimated movement path among the plurality of cameras. The shooting cycle of the camera can be set shorter than that of cameras shooting in other directions.
또한, 상기 라이다를 제어하는 단계는 상기 차량과 상기 객체 사이의 거리가 사전에 설정된 접촉 가능 범위 이내인 경우, 상기 차량에 고정 설치된 복수 개의 초음파 센서들이 초음파를 발사하도록 제어할 수 있다.In the controlling of the lidar, when the distance between the vehicle and the object is within a preset contactable range, a plurality of ultrasonic sensors fixed to the vehicle may be controlled to emit ultrasonic waves.
상술한 바와 같은 기술적 과제를 달성하기 위하여, 본 발명은 다중 센서를 효과적으로 제어할 수 있는 방법을 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램을 제안한다. 상기 컴퓨터 프로그램은 메모리(memory); 송수신기(transceiver); 및 상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합될 수 있다.면들에 포함되어 있다.In order to achieve the technical problem as described above, the present invention proposes a computer program recorded on a recording medium to execute a method capable of effectively controlling multiple sensors. The computer program may include a memory; transceiver; and a processor configured to process instructions resident in the memory.
본 발명의 실시 예들에 따르면, 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키기 위한 데이터를 수집하는 차량에 설치된 다중 센서들의 데이터 수집 주기 또는 수집할 데이터의 품질을 제어함으로써, 인공지능(AI)의 기계 학습용 데이터들 중에서 상대적으로 중요도가 낮은 데이터를 감소시킬 수 있다. 이와 같이, 상대적으로 중요도가 낮은 데이터를 감소시킴으로써, 인공지능(AI)의 기계 학습을 위한 데이터 가공의 부담을 낮출 수 있게 된다.According to embodiments of the present invention, by controlling the data collection period of multiple sensors installed in a vehicle or the quality of data to be collected that collects data for machine learning artificial intelligence (AI) that can be used for autonomous driving, artificial intelligence (AI) Among AI) data for machine learning, data of relatively low importance may be reduced. In this way, by reducing data of relatively low importance, it is possible to lower the burden of data processing for machine learning of artificial intelligence (AI).
본 발명의 효과들은 이상에서 언급한 효과로 제한되지 아니하며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 본 발명이 속한 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일 실시예에 따른 인공지능 학습 시스템의 구성도이다.1 is a block diagram of an artificial intelligence learning system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 다중 센서들을 설명하기 위한 예시도이다.2 is an exemplary view for explaining multiple sensors according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 학습 데이터 수집 장치의 논리적 구성도이다.3 is a logical configuration diagram of a learning data collection device according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 학습 데이터 수집 장치의 하드웨어 구성도이다.4 is a hardware configuration diagram of a learning data collection device according to an embodiment of the present invention.
도 5 내지 도 7은 본 발명의 일 실시예에 따라 다중 센서들을 제어하는 과정을 설명하기 위한 예시도이다.5 to 7 are exemplary diagrams for explaining a process of controlling multiple sensors according to an embodiment of the present invention.
도 8 및 도 9는 본 발명의 일 실시예에 따라 수집된 데이터들에 대하여 후처리하는 과정을 설명하기 위한 예시도이다.8 and 9 are exemplary diagrams for explaining a process of post-processing collected data according to an embodiment of the present invention.
도 10 내지 도 12는 본 발명의 일 실시예에 따라 다중 센서들의 오차를 보정하는 과정을 설명하기 위한 예시도이다.10 to 12 are exemplary diagrams for explaining a process of correcting errors of multiple sensors according to an embodiment of the present invention.
도 13은 본 발명의 일 실시예에 따른 데이터 수집 방법을 설명하기 위한 순서도이다. 13 is a flowchart illustrating a data collection method according to an embodiment of the present invention.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in this specification should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in this specification, and are overly inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in this specification are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in this specification include plural expressions unless the context clearly indicates otherwise. In this application, terms such as "consisting of" or "having" should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps are included. It should be construed that it may not be, or may further include additional components or steps.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Also, terms including ordinal numbers such as first and second used in this specification may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but other components may exist in the middle. On the other hand, when a component is referred to as “directly connected” or “directly connected” to another component, it should be understood that no other component exists in the middle.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings. The spirit of the present invention should be construed as extending to all changes, equivalents or substitutes other than the accompanying drawings.
상술한 바와 같이, 차량에 설치된 다양한 센서에 의해 연속적으로 획득, 촬영 또는 측정된 모든 데이터들 속에 인공지능(AI)의 학습 대상이 되는 객체가 포함되어 있는 것은 아니다. 즉, 다양한 센서에 의해 연속적으로 획득, 촬영 또는 측정된 모든 데이터들 중에는 자율주행에 사용될 수 있는 인공지능(AI)의 기계 학습에 무의미한 데이터들이 다수 포함되어 있다.As described above, not all data continuously acquired, photographed, or measured by various sensors installed in a vehicle include an object to be learned by artificial intelligence (AI). That is, among all data continuously acquired, photographed, or measured by various sensors, a large number of data that are meaningless for machine learning of artificial intelligence (AI) that can be used for autonomous driving are included.
또한, 인공지능(AI)의 기계 학습에 사용되는 데이터들을 획득, 촬영 또는 측정하기 위한 다양한 센서들은 물리적으로 동일한 하나의 지점에 설치될 수 없으며, 여러 지점들에 이격되어 제각각 설치될 수밖에 없다. 따라서, 다양한 센서들에 의해 획득, 촬영 또는 측정된 데이터들은 각각의 센서가 설치된 위치에 따라 서로 차이를 가질 수밖에 없다.In addition, various sensors for acquiring, photographing, or measuring data used for machine learning of artificial intelligence (AI) cannot be physically installed at the same point, but must be spaced apart from each other and installed separately. Accordingly, data acquired, photographed, or measured by various sensors inevitably have differences depending on the location where each sensor is installed.
이러한 어려움을 해결하고자, 본 발명은 인공지능(AI)의 기계 학습용 데이터를 수집하는 다중 센서들을 효과적으로 제어하고, 무의미한 데이터를 감소시키며, 다중 센서들에 의해 수집된 데이터들 사이의 오차를 최소화시킬 수 있는 다양한 수단들을 제안하고자 한다.In order to solve these difficulties, the present invention can effectively control multiple sensors that collect data for machine learning of artificial intelligence (AI), reduce meaningless data, and minimize errors between data collected by multiple sensors. We would like to suggest a variety of means available.
도 1은 본 발명의 일 실시예에 따른 인공지능 학습 시스템의 구성도이다.1 is a block diagram of an artificial intelligence learning system according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 인공지능 학습 시스템은 학습 데이터 수집 장치(100), 학습 데이터 생성 장치(200), 다수 개의 어노테이션 장치(300) 및 인공지능 학습 장치(400)를 포함하여 구성될 수 있다.As shown in FIG. 1, the artificial intelligence learning system according to an embodiment of the present invention includes a learning data collection device 100, a learning data generating device 200, a plurality of annotation devices 300, and an artificial intelligence learning device ( 400) may be configured.
이와 같은, 일 실시예에 따른 인공지능 학습 시스템의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.Since the components of the artificial intelligence learning system according to an embodiment are merely functionally distinct elements, two or more components are integrated and implemented in an actual physical environment, or one component is implemented in an actual physical environment. may be implemented separately from each other.
각각의 구성 요소에 대하여 설명하면, 학습 데이터 수집 장치(100)는 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키기 위한 데이터를 수집하는데 사용될 수 있는 장치이다. Describing each component, the learning data collection device 100 is a device that can be used to collect data for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle.
즉, 학습 데이터 수집 장치(100)는 다중 센서를 제어하여 데이터를 획득, 촬영 또는 감지할 수 있다. 그리고, 학습 데이터 수집 장치(100)는 획득, 촬영 또는 감지된 데이터들이 가공될 수 있도록, 학습 데이터 생성 장치(200)에 전송할 수 있다. That is, the learning data collection device 100 may obtain, capture, or sense data by controlling multiple sensors. And, the learning data collection device 100 may transmit acquired, photographed, or sensed data to the learning data generating device 200 so that they can be processed.
이 경우, 학습 데이터 수집 장치(100)의 제어의 대상이 되는 다중 센서에는 라이다(lidar), 카메라(camera), 레이더(radar) 및 초음파 센서(ultrasonic sensor) 중 하나 이상이 포함될 수 있으나, 이에 한정되는 것은 아니다.In this case, the multiple sensors that are controlled by the learning data collection device 100 may include one or more of a lidar, a camera, a radar, and an ultrasonic sensor. It is not limited.
이와 같은, 학습 데이터 수집 장치(100)의 제어 대상이 되는 다중 센서에 대해서는 추후 도 2를 참조하여 보다 구체적으로 설명하기로 한다.Such multiple sensors that are controlled by the learning data collection device 100 will be described in more detail later with reference to FIG. 2 .
특징적으로, 본 발명의 실시예들에 따른 학습 데이터 수집 장치(100)는 데이터들을 수집하기 위한 다중 센서들을 효과적으로 제어하고, 무의미한 데이터를 감소시키며, 다중 센서들에 의해 수집된 데이터들 사이의 오차를 최소화시킬 수 있는 특징들을 가지고 있다.Characteristically, the learning data collection apparatus 100 according to embodiments of the present invention effectively controls multiple sensors for collecting data, reduces meaningless data, and reduces errors between data collected by multiple sensors. It has features that can be minimized.
이와 같은, 학습 데이터 수집 장치(100)의 특징들에 대해서는 추후 도 3 및 도 4를 참조하여 보다 구체적으로 설명하기로 한다.Such characteristics of the learning data collection device 100 will be described in more detail later with reference to FIGS. 3 and 4 .
다음 구성으로, 학습 데이터 생성 장치(200)는 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키기 위한 데이터를 설계 및 가공하는데 사용될 수 있는 장치이다. With the following configuration, the learning data generating device 200 is a device that can be used to design and process data for machine learning of artificial intelligence (AI) that can be used for autonomous driving of vehicles.
구체적으로, 학습 데이터 생성 장치(200)는 인공지능 학습 장치(400)로부터 인공지능(AI) 학습과 관련된 프로젝트의 속성을 수신할 수 있다. 학습 데이터 생성 장치(200)는 사용자의 제어 및 수신된 프로젝트의 속성을 기초로, 인공지능(AI) 학습을 위한 데이터 구조의 설계, 수집된 데이터의 정제, 데이터의 가공, 데이터의 확장 및 데이터의 검증을 수행할 수 있다.Specifically, the learning data generating device 200 may receive attributes of a project related to artificial intelligence (AI) learning from the artificial intelligence learning device 400 . The learning data generating device 200 is based on the user's control and the properties of the received project, designing a data structure for artificial intelligence (AI) learning, refining collected data, processing data, expanding data, and verification can be performed.
우선적으로, 학습 데이터 생성 장치(200)는 인공지능(AI) 학습을 위한 데이터 구조를 설계할 수 있다. 예를 들어, 학습 데이터 생성 장치(200)는 사용자의 제어 및 수신된 프로젝트의 속성을 기초로, 인공지능(AI) 학습을 위한 온톨로지(ontology), 인공지능(AI) 학습을 위한 데이터의 분류 체계를 정의할 수 있다.First of all, the learning data generating device 200 may design a data structure for artificial intelligence (AI) learning. For example, the learning data generating device 200 forms an ontology for artificial intelligence (AI) learning and a data classification system for artificial intelligence (AI) learning based on the attributes of the user's control and the received project. can define
학습 데이터 생성 장치(200)는 설계된 데이터 구조를 기초로, 인공지능(AI) 학습을 위한 데이터를 수집할 수 있다. 이를 위하여, 학습 데이터 생성 장치(200)는 학습 데이터 수집 장치(100)로부터 감지 데이터들, 3D 점군 데이터들, 2D 이미지들 및 센싱 데이터들을 수신할 수 있다. 그러나, 이에 한정되지 아니하고, 학습 데이터 생성 장치(200)는 웹 크롤링(web crawling)을 수행하거나, 또는 외부 기관의 장치로부터 데이터들을 다운로드할 수도 있다.The learning data generating device 200 may collect data for artificial intelligence (AI) learning based on the designed data structure. To this end, the learning data generating device 200 may receive sensing data, 3D point cloud data, 2D images, and sensing data from the learning data collecting device 100 . However, the learning data generation device 200 is not limited thereto, and may perform web crawling or download data from an external organization's device.
학습 데이터 생성 장치(200)는 수집된 감지 데이터들, 3D 점군 데이터들, 2D 이미지들 및 센싱 데이터들 중에서 중복되거나 또는 극히 유사한 데이터를 제거할 수 있다. 학습 데이터 생성 장치(200)는 수집된 감지 데이터들, 3D 점군 데이터 및 2D 이미지들에 포함된 개인정보를 비식별화(de-identification)할 수 있다.The learning data generation apparatus 200 may remove redundant or extremely similar data from among the collected sensing data, 3D point cloud data, 2D images, and sensing data. The learning data generation apparatus 200 may de-identify personal information included in the collected sensing data, 3D point cloud data, and 2D images.
학습 데이터 생성 장치(200)는 수집 및 정제된 감지 데이터들, 3D 점군 데이터들, 2D 이미지들 및 센싱 데이터들을 복수 개의 어노테이션 장치(300)에 분배하여 전송할 수 있다. 이 경우, 학습 데이터 생성 장치(200)는 어노테이션 장치(300)의 작업자(즉, 라벨러)에 대하여 사전에 할당된 양에 대응하여, 감지 데이터들, 3D 점군 데이터들, 2D 이미지들 및 센싱 데이터들을 분배할 수 있다.The learning data generating device 200 may distribute and transmit collected and refined sensing data, 3D point cloud data, 2D images, and sensing data to a plurality of annotation devices 300 . In this case, the learning data generating device 200 generates sensing data, 3D point cloud data, 2D images, and sensing data in response to a pre-allocated amount for an operator (ie, labeler) of the annotation device 300. can be distributed
학습 데이터 생성 장치(200)는 각각의 어노테이션 장치(300)로부터 어노테이션 작업 결과물을 수신할 수 있다. 학습 데이터 생성 장치(200)는 수신된 어노테이션 작업 결과물을 패키징(packaging)하여 인공지능(AI) 학습용 데이터를 생성할 수 있다. 그리고, 학습 데이터 생성 장치(200)는 생성된 인공지능(AI) 학습용 데이터를 인공지능 학습 장치(400)에 전송할 수 있다. The learning data generating device 200 may receive annotation work results from each annotation device 300 . The learning data generating device 200 may generate AI learning data by packaging the received annotation work result. And, the learning data generating device 200 may transmit the generated artificial intelligence (AI) learning data to the artificial intelligence learning device 400 .
이와 같은 특징을 가지는, 학습 데이터 생성 장치(200)는 학습 데이터 수집 장치(100), 어노테이션 장치(300) 및 인공지능 학습 장치(400)와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 학습 데이터 생성 장치(200)는 데스크탑(desktop), 워크스테이션(workstation) 또는 서버(server)와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.The learning data generation device 200 having such characteristics transmits and receives data to and from the learning data collection device 100, the annotation device 300, and the artificial intelligence learning device 400, and performs calculations based on the transmitted and received data. Any device that can do this is acceptable. For example, the learning data generating device 200 may be any one of a fixed computing device such as a desktop, workstation, or server, but is not limited thereto.
다음 구성으로, 어노테이션 장치(300)는 학습 데이터 생성 장치(200)에 의해 분배된 감지 데이터들, 3D 점군 데이터들, 2D 이미지들 및 센싱 데이터들에 대하여 어노테이션을 수행하는데 사용될 수 있는 장치이다. 이와 같은, 어노테이션 장치(300)의 전부 또는 일부는 어노테이션 작업자가 클라우딩 서비스(clouding service)를 통해 어노테이션 작업을 수행하는 장치가 될 수도 있다.With the following configuration, the annotation device 300 is a device that can be used to annotate the sensed data distributed by the learning data generating device 200, 3D point cloud data, 2D images, and sensing data. All or part of the annotation device 300 may be a device for performing annotation work by an annotation worker through a clouding service.
구체적으로, 어노테이션 장치(300)는 학습 데이터 생성 장치(200)로부터 수신된 감지 데이터들, 3D 점군 데이터들, 2D 이미지들 및 센싱 데이터들 중에서 어노테이션 작업 대상이 되는 하나의 감지 데이터, 3D 점군 데이터, 2D 이미지 또는 센싱 데이터 디스플레이에 출력할 수 있다.Specifically, the annotation device 300 selects one sensed data, 3D point cloud data, It can be output to 2D image or sensing data display.
어노테이션 장치(300)는 입출력장치를 통해 사용자로부터 입력된 신호에 따라 툴(tool)을 선택할 수 있다. 여기서, 툴은 감지 데이터, 3D 점군 데이터, 2D 이미지 또는 센싱 데이터 속에 포함되어 있는 하나 이상의 객체(object)를 특정하는 바운딩 박스를 설정하기 위한 도구이다. The annotation device 300 may select a tool according to a signal input from a user through an input/output device. Here, the tool is a tool for setting a bounding box that specifies one or more objects included in sensing data, 3D point cloud data, 2D image, or sensing data.
어노테이션 장치(300)는 입출력장치를 통해 선택된 툴에 따른 좌표를 입력 받을 수 있다. 그리고, 어노테이션 장치(300)는 입력된 좌표를 기초로 바운딩 박스(bounding box)를 설정하여, 감지 데이터, 3D 점군 데이터, 2D 이미지 또는 센싱 데이터 속에 포함된 객체를 특정할 수 있다. The annotation device 300 may receive coordinates according to the selected tool through an input/output device. In addition, the annotation device 300 may specify an object included in sensing data, 3D point cloud data, 2D image, or sensing data by setting a bounding box based on the input coordinates.
여기서, 바운딩 박스는 감지 데이터, 3D 점군 데이터, 2D 이미지 또는 센싱 데이터 속에 포함된 객체들 중에서 인공지능(AI) 학습의 대상이 되는 객체를 특정하기 위한 영역이다. 이와 같은, 바운딩 박스는 사각형(rectangle) 또는 정육면체(cube)의 형상을 가질 수 있으며, 이에 한정되는 것은 아니다.Here, the bounding box is an area for specifying an object to be learned by artificial intelligence (AI) among objects included in sensing data, 3D point cloud data, 2D image, or sensing data. Such a bounding box may have a rectangle or cube shape, but is not limited thereto.
예를 들어, 어노테이션 장치(300)는 입출력장치를 통해 두 개의 좌표를 입력 받고, 입력된 두 좌표를 기초로 감지 데이터, 3D 점군 데이터, 2D 이미지 또는 센싱 데이터 내에서 좌상단 꼭지점(vertex)의 좌표와 우하단 꼭지점의 좌표로 가지는 사각형을 기초로 바운딩 박스를 설정하여 객체를 특정할 수 있다. 이 경우, 두 개의 좌표는 사용자가 한 종류의 입력 신호를 두 번 입력(예들 들어, 마우스 클릭)하여 설정되거나, 사용자가 두 종류의 입력 신호를 한번씩 입력(예를 들어, 마우스 드래그)하여 설정될 수 있으나, 이에 한정되는 것은 아니다.For example, the annotation device 300 receives two coordinates through an input/output device, and based on the inputted two coordinates, the coordinates and the upper left vertex within sensing data, 3D point cloud data, 2D image, or sensing data. An object can be specified by setting a bounding box based on a rectangle with the coordinates of the lower right vertex. In this case, the two coordinates may be set by the user inputting one type of input signal twice (eg, mouse click) or by the user inputting two types of input signal once (eg, mouse drag). It may, but is not limited thereto.
어노테이션 장치(300)는 입출력장치를 통해 사용자로부터 입력된 신호에 따라, 어노테이션 작업의 대상이 되는 감지 데이터, 3D 점군 데이터, 2D 이미지, 센싱 데이터, 또는 설정된 객체에 대한 메타데이터(metadata)를 생성할 수 있다. 여기서, 메타데이터는 감지 데이터, 3D 점군 데이터, 2D 이미지, 센싱 데이터, 또는 객체를 설명하기 위한 데이터이다. 이와 같은, 메타데이터에는 특정된 객체의 카테고리, 객체가 화각에 의해 잘려진 비율, 객체가 다른 객체 또는 물체에 의해 가려진 비율, 객체의 트래킹 아이디, 이미지가 촬영된 시각, 이미지가 촬영된 날의 기상 조건 등이 포함될 수 있으며, 이에 한정되지 아니하고, 파일 크기, 이미지 크기, 저작권자, 해상도, 비트 값, 조리개 투과량, 노출 시간, ISO 감도, 초점 거리, 조리개 개방 수치, 화각, 화이트 밸런스, RGB 깊이, 클래스 명, 태그, 촬영 장소, 도로의 유형, 도로 표면 정보 또는 교통 체증 정보가 더 포함될 수도 있다.The annotation device 300 generates sensing data, 3D point cloud data, 2D image, sensing data, or metadata for a set object to be annotated according to a signal input from a user through an input/output device. can Here, the metadata is sensing data, 3D point cloud data, 2D image, sensing data, or data for describing an object. Such metadata includes the category of the specified object, the rate at which the object is clipped by the angle of view, the rate at which the object is obscured by other objects or objects, the tracking ID of the object, the time the image was taken, and the weather conditions on the day the image was taken. may include, but are not limited to, file size, image size, copyright holder, resolution, bit value, aperture transmittance, exposure time, ISO sensitivity, focal length, aperture value, angle of view, white balance, RGB depth, class name , tag, shooting location, type of road, road surface information, or traffic jam information may be further included.
어노테이션 장치(300)는 특정된 객체와 생성된 메타데이터를 기초로, 어노테이션 작업 결과물을 생성할 수 있다. 이 경우, 어노테이션 작업 결과물을 JSON(Java Script Object Notation) 파일 형식을 가질 수 있으나, 이에 한정되는 것은 아니다. 어노테이션 장치(300)는 생성된 어노테이션 작업 결과물을 학습 데이터 생성 장치(200)에 전송할 수 있다. The annotation device 300 may generate an annotation work result based on the specified object and generated metadata. In this case, the annotation work result may have a JSON (Java Script Object Notation) file format, but is not limited thereto. The annotation device 300 may transmit the generated annotation work result to the learning data generating device 200 .
이와 같은 특징을 가지는, 어노테이션 장치(300)는 학습 데이터 생성 장치(200)와 데이터를 송수신하고, 송수신된 데이터를 기초로 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 어노테이션 장치(100)는 데스크탑(desktop), 워크스테이션(workstation) 또는 서버(server)와 같은 고정식 컴퓨팅 장치, 또는 스마트폰(smart phone), 랩탑(laptaop), 태블릿(tablet), 패블릿(phablet), 휴대용 멀티미디어 재생장치(Portable Multimedia Player, PMP), 개인용 휴대 단말기(Personal Digital Assistants, PDA) 또는 전자책 단말기(E-book reader)과 같은 이동식 컴퓨팅 장치 중 어느 하나가 될 수 있다.Any device capable of transmitting and receiving data with the learning data generating device 200 and performing an operation based on the transmitted and received data may be used as the annotation device 300 having such characteristics. For example, the annotation device 100 may be a stationary computing device such as a desktop, workstation, or server, or a smartphone, laptop, tablet, or tablet. It may be any one of mobile computing devices such as a phablet, a portable multimedia player (PMP), a personal digital assistant (PDA), or an e-book reader.
다음 구성으로, 인공지능 학습 장치(400)는 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습시키는데 사용될 수 있는 장치이다.With the following configuration, the artificial intelligence learning device 400 is a device that can be used for machine learning of artificial intelligence (AI) that can be used for autonomous driving of a vehicle.
구체적으로, 인공지능 학습 장치(400)는 차량의 자율주행에 사용될 수 있는 인공지능(AI)의 목적 달성을 위한 요구 사항을 학습 데이터 생성 장치(200)에 전송할 수 있다. 인공지능 학습 장치(400)는 학습 데이터 생성 장치(200)로부터 인공지능(AI) 학습용 데이터를 수신할 수 있다. 그리고, 인공지능 학습 장치(400)는 수신된 인공지능(AI) 학습용 데이터를 이용하여, 차량의 자율주행에 사용될 수 있는 인공지능(AI)을 기계 학습할 수 있다.Specifically, the artificial intelligence learning device 400 may transmit requirements for achieving the purpose of artificial intelligence (AI) that can be used for autonomous driving of a vehicle to the learning data generating device 200 . The artificial intelligence learning device 400 may receive artificial intelligence (AI) learning data from the learning data generating device 200 . In addition, the artificial intelligence learning apparatus 400 may perform machine learning on artificial intelligence (AI) that can be used for autonomous driving of a vehicle using the received artificial intelligence (AI) learning data.
이와 같은, 인공지능 학습 장치(400)는 학습 데이터 생성 장치(200)와 데이터를 송수신하고, 송수신된 데이터를 이용하여 연산을 수행할 수 있는 장치라면 어떠한 장치라도 허용될 수 있다. 예를 들어, 인공지능 학습 장치(400)는 데스크탑, 워크스테이션 또는 서버와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으나, 이에 한정되는 것은 아니다.As such, the artificial intelligence learning device 400 may be any device capable of transmitting and receiving data to and from the learning data generating device 200 and performing calculations using the transmitted and received data. For example, the artificial intelligence learning device 400 may be any one of a fixed computing device such as a desktop, workstation, or server, but is not limited thereto.
지금까지 상술한 바와 같은, 학습 데이터 수집 장치(100), 학습 데이터 생성 장치(200), 다수 개의 어노테이션 장치(300) 및 인공지능 학습 장치(400)는 장치들 사이를 직접 연결하는 보안 회선, 공용 유선 통신망 또는 이동 통신망 중 하나 이상이 조합된 네트워크를 이용하여 데이터를 송수신할 수 있다. As described above, the learning data collection device 100, the learning data generation device 200, a plurality of annotation devices 300, and the artificial intelligence learning device 400 are connected directly to each other through a secure line, common Data may be transmitted and received using a network in which one or more of a wired communication network or a mobile communication network is combined.
예를 들어, 공용 유선 통신망에는 이더넷(ethernet), 디지털가입자선(x Digital Subscriber Line, xDSL), 광동축 혼합망(Hybrid Fiber Coax, HFC), 광가입자망(Fiber To The Home, FTTH)가 포함될 수 있으나, 이에 한정되는 것도 아니다. 그리고, 이동 통신망에는 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 와이드 밴드 코드 분할 다중 접속(Wideband CDMA, WCDMA), 고속 패킷 접속(High Speed Packet Access, HSPA), 롱텀 에볼루션(Long Term Evolution, LTE), 5세대 이동통신(5th generation mobile telecommunication)가 포함될 수 있으나, 이에 한정되는 것은 아니다. For example, public wired communication networks may include Ethernet, x Digital Subscriber Line (xDSL), Hybrid Fiber Coax (HFC), and Fiber To The Home (FTTH). It may be, but is not limited thereto. In addition, in the mobile communication network, Code Division Multiple Access (CDMA), Wideband CDMA (WCDMA), High Speed Packet Access (HSPA), Long Term Evolution, LTE) and 5th generation mobile telecommunication may be included, but is not limited thereto.
이하, 상술한 바와 같은 학습 데이터 수집 장치(100)의 제어 대상이 되는 다중 센서에 대하여 보다 구체적으로 설명하기로 한다.Hereinafter, multiple sensors to be controlled by the learning data collection device 100 as described above will be described in more detail.
도 2는 본 발명의 일 2 is one of the present invention 실시예에in the examples 따른 다중 센서들을 설명하기 위한 for explaining multiple sensors according to 예시도이다is an example ..
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50) 중 하나 이상을 제어하여, 인공지능(AI)을 기계 학습시키기 위한 데이터를 획득, 촬영 또는 감지할 수 있다.As shown in FIG. 2, the learning data collection device 100 according to an embodiment of the present invention includes a radar 20, a lidar 30, a camera 40, and an ultrasonic sensor ( 50), it is possible to acquire, photograph or sense data for machine learning of artificial intelligence (AI).
여기서, 차량(10)은 인공지능(AI)을 기계 학습시키기 위한 기초 데이터를 수집하기 위한 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)가 설치된 차량으로, 인공지능(AI)에 의해 자율주행을 수행하는 차량과는 서로 구별될 수 있다.Here, the vehicle 10 is a vehicle equipped with a radar 20, a lidar 30, a camera 40, and an ultrasonic sensor 50 for collecting basic data for machine learning of artificial intelligence (AI). It can be distinguished from vehicles that perform autonomous driving by intelligence (AI).
레이더(20)는 차량(10)에 고정 설치되어 차량(10)의 주행 방향을 향하여 전자기파(electromagnetic wave)를 발사하고, 차량(10)의 전방에 위치하는 객체(object)에 의해 반사되어 돌아온 전자기파를 감지하여, 차량(10)이 전방에 대한 영상에 해당하는 감지 데이터를 생성할 수 있다. The radar 20 is fixedly installed in the vehicle 10 and emits electromagnetic waves toward the driving direction of the vehicle 10, and the electromagnetic waves reflected by an object located in front of the vehicle 10 and returned. By sensing, the vehicle 10 may generate sensing data corresponding to an image of the front side.
다르게 말하면, 감지 데이터는 차량(10)에 고정 설치된 레이더(20)에 의해 차량의 주행 방향을 향하여 발사된 전자기파를 반사시킨 점들(points)에 대한 정보이다. 따라서, 감지 데이터에 포함된 점들의 좌표들은 차량(10)의 전방에 위치하는 객체의 위치 및 형상에 대응하는 값을 가질 수 있다. 이러한, 감지 데이터는 2차원 정보가 될 수 있으나, 이에 한정되지 않고 3차원 정보가 될 수도 있다.In other words, the sensing data is information on points at which electromagnetic waves emitted by the radar 20 fixedly installed in the vehicle 10 toward the driving direction of the vehicle are reflected. Accordingly, the coordinates of the points included in the sensing data may have values corresponding to the position and shape of an object located in front of the vehicle 10 . This sensed data may be 2D information, but is not limited thereto and may be 3D information.
라이다(30)는 차량(10)에 고정 설치되어 차량(10)의 주위로 레이저 펄스(laser pulse)를 방사하고, 차량(10)의 주위에 위치하는 객체에 의해 반사되어 돌아온 빛을 감지하여, 차량(10)의 주위에 대한 3차원 영상에 해당하는 3D 점군 데이터를 생성할 수 있다.The lidar 30 is fixedly installed on the vehicle 10, radiates a laser pulse around the vehicle 10, and detects light reflected back by an object located around the vehicle 10. , 3D point cloud data corresponding to a 3D image of the surroundings of the vehicle 10 may be generated.
다르게 말하면, 3D 점군 데이터는 차량(10)에 고정 설치된 라이다(30)에 의해 차량의 주위로 방사된 레이저 펄스를 반사시킨 점들에 대한 3차원 정보이다. 따라서, 3D 점군 데이터에 포함된 점들의 좌표들은 차량(10)의 주위에 위치하는 객체의 위치 및 형성에 대응하는 값을 가질 수 있다. In other words, the 3D point cloud data is three-dimensional information on points obtained by reflecting laser pulses emitted around the vehicle by the LIDAR 30 fixedly installed in the vehicle 10 . Accordingly, coordinates of points included in the 3D point cloud data may have values corresponding to the location and formation of objects located around the vehicle 10 .
카메라(40)는 차량(10)에 고정 설치되어 차량(10)의 주위에 대한 2차원 이미지를 촬영할 수 있다. 이와 같은, 카메라(40)는 그 화각에 따라 복수 개로 구성될 수 있다. 예를 들어, 도 2는 차량(10)에 6개의 카메라(40)가 설치된 예시를 도시하고 있으나, 차량(10)에 설치될 수 있는 카메라(40)가 다양한 개수로 구성될 수 있음은 본 발명이 속한 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.The camera 40 is fixedly installed in the vehicle 10 and can capture a two-dimensional image of the surroundings of the vehicle 10 . As such, a plurality of cameras 40 may be configured according to the angle of view. For example, although FIG. 2 shows an example in which six cameras 40 are installed in the vehicle 10, the number of cameras 40 that can be installed in the vehicle 10 can be configured according to the present invention. It will be obvious to those skilled in the art.
다르게 말하면, 2D 이미지는 차량(10)에 고정 설치된 카메라(40)에 의해 촬영된 이미지이다. 따라서, 2D 이미지에는 카메라(40)가 향하는 방향에 위치하는 객체의 색상 정보가 포함될 수 있다. In other words, the 2D image is an image captured by the camera 40 fixed to the vehicle 10 . Accordingly, the 2D image may include color information of an object located in a direction in which the camera 40 faces.
초음파 센서(50)는 차량(50)에 고정 설치되어 차량(10)의 주위로 초음파(ultrasonic)를 발사하고, 차량(10)과 인접하게 위치하는 객체에 의해 반사되어 돌아온 음파를 감지하여, 차량(10)에 설치된 초음파 센서(50)와 객체 사이의 거리에 해당하는 거리 정보를 생성할 수 있다. 일반적으로, 초음파 센서(50)는 복수 개로 구성되어, 객체와 접촉하기 쉬운 차량(10)의 전방, 후방, 전측방 및 후측방에 고정 설치될 수 있다.The ultrasonic sensor 50 is fixedly installed in the vehicle 50, emits ultrasonic waves around the vehicle 10, detects sound waves reflected by an object positioned adjacent to the vehicle 10 and returns, Distance information corresponding to the distance between the ultrasonic sensor 50 installed in (10) and the object may be generated. In general, a plurality of ultrasonic sensors 50 may be configured and fixedly installed at the front, rear, front and rear sides of the vehicle 10, which are easily contacted with objects.
다르게 말하면, 거리 정보는 차량(10)에 고정 설치된 초음파 센서(50)에 의해 감지된 객체로부터의 거리에 관한 정보이다. In other words, the distance information is information about a distance from an object detected by the ultrasonic sensor 50 fixedly installed in the vehicle 10 .
이하, 상술한 바와 같은, 학습 데이터 수집 장치(100)의 구성에 대하여 보다 구체적으로 설명하기로 한다.Hereinafter, the configuration of the learning data collection device 100 as described above will be described in more detail.
도 3은 본 발명의 일 3 is one of the present invention 실시예에in the examples 따른 학습 데이터 수집 장치의 논리적 구성도이다. It is a logical configuration diagram of the learning data collection device according to FIG.
도 3에 도시된 바와 같이, 학습 데이터 수집 장치(100)는 통신부(105), 입출력부(110), 다중 센서 제어부(115), 데이터 후처리부(120), 오차 보정부(125) 및 데이터 제공부(130)를 포함하여 구성될 수 있다. As shown in FIG. 3, the learning data collection device 100 includes a communication unit 105, an input/output unit 110, a multi-sensor control unit 115, a data post-processing unit 120, an error correcting unit 125, and a data control unit. It may be configured to include study 130.
이와 같은, 학습 데이터 수집 장치(100)의 구성 요소들은 기능적으로 구분되는 요소들을 나타낸 것에 불과하므로, 둘 이상의 구성 요소가 실제 물리적 환경에서는 서로 통합되어 구현되거나, 하나의 구성 요소가 실제 물리적 환경에서는 서로 분리되어 구현될 수 있을 것이다.Since the components of the learning data collection device 100 are only functionally distinct elements, two or more components are integrated and implemented in an actual physical environment, or one component is mutually exclusive in an actual physical environment. It could be implemented separately.
각각의 구성 요소에 대하여 설명하면, 통신부(105)는 다중 센서들과 학습 데이터 생성 장치(200)와 데이터를 송수신할 수 있다.Describing each component, the communication unit 105 may transmit/receive data with multiple sensors and the learning data generating device 200 .
구체적으로, 통신부(105)는 차량(10)에 고정 설치된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 수신할 수 있다.Specifically, the communication unit 105 transmits detection data, 3D point cloud data, 2D image, and distance information from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 fixedly installed in the vehicle 10. can receive
이를 위하여, 학습 데이터 수집 장치(100)와 다중 센서는 데이터 송수신용 케이블에 의해 서로 직접 연결될 수 있으나, 이에 한정되는 것은 아니다.To this end, the learning data collection device 100 and the multiple sensors may be directly connected to each other by cables for data transmission and reception, but are not limited thereto.
그리고, 통신부(105)는 데이터 제공부(130)의 제어에 따라, 후처리 및 오차 보정이 수행된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 학습 데이터 생성 장치(200)에 전송할 수 있다.Further, the communication unit 105 may transmit the post-processing and error correction-performed sensing data, 3D point cloud data, 2D image, and distance information to the learning data generating device 200 under the control of the data providing unit 130. .
다음 구성으로, 입출력부(110)는 사용자 인터페이스(UI)를 통해 사용자로부터 신호를 입력 받거나 연산 결과를 외부로 출력할 수 있다.With the following configuration, the input/output unit 110 may receive a signal from a user through a user interface (UI) or output an operation result to the outside.
구체적으로, 입출력부(110)는 사용자로부터 임계 범위를 입력 받을 수 있다. 여기서, 임계 범위는 감지 데이터 또는 3D 점군 데이터에 포함된 점들 중에서 객체로 식별될 수 있는 점들의 군집(crowd)을 결정하기 위한 크기 범위로서, 인공지능(AI)의 기계 학습의 대상이 되는 객체의 유형에 따라 결정된 값이 입력될 수 있다. Specifically, the input/output unit 110 may receive input of a threshold range from a user. Here, the critical range is a size range for determining a crowd of points that can be identified as objects among points included in the sensing data or 3D point cloud data, A value determined according to the type may be input.
입출력부(110)는 사용자로부터 라이다 인식 범위를 입력 받을 수 있다. 여기서, 라이다 인식 범위는 라이다(30)로부터 방사된 레이저 펄스가 도달하여 객체가 인식될 수 있는 범위로서, 라이다(30)의 출력 또는 유형에 따라 결정된 값이 입력될 수 있다.The input/output unit 110 may receive an input of a lidar recognition range from a user. Here, the lidar recognition range is a range in which a laser pulse emitted from the lidar 30 arrives and an object can be recognized, and a value determined according to the output or type of the lidar 30 may be input.
입출력부(110)는 사용자로부터 특정 가능 범위를 입력 받을 수 있다. 여기서, 특정 가능 범위는 카메라(40)에 의해 촬영된 2D 이미지로부터 객체를 특정할 수 있는 범위로서, 인공지능(AI)의 기계 학습의 대상이 되는 객체의 유형, 최소 요구 픽셀(pixel)의 개수 등에 따라 결정된 값이 입력될 수 있다.The input/output unit 110 may receive input of a specific possible range from the user. Here, the specific possible range is a range in which an object can be specified from a 2D image captured by the camera 40, and includes the type of object to be targeted for machine learning of artificial intelligence (AI) and the number of minimum required pixels. A value determined according to, etc. may be input.
입출력부(110)는 사용자로부터 접촉 가능 범위를 입력 받을 수 있다. 여기서, 접촉 가능 범위는 차량(10)이 상식적인 범위 내에서 거동하였을 때 다른 객체와 접촉할 가능성을 가질 수 있는 범위로서, 인공지능(AI)의 기계 학습의 목표 등에 따라 결정된 값이 입력될 수 있다.The input/output unit 110 may receive an input of a contactable range from the user. Here, the contactable range is a range in which the vehicle 10 may have a possibility of contact with another object when it behaves within a common sense range, and a value determined according to the goal of machine learning of artificial intelligence (AI) may be input. there is.
입출력부(110)는 사용자로부터 샘플링 테이블을 입력 받을 수 있다. 여기서, 샘플링 테이블은 라이다에 의해 획득된 3D 점군 데이터들로부터 일부의 데이터들만 샘플링하기 위한 기준 정보와, 차량(10)과 객체 사이의 거리가 서로 매핑(mapping)된 테이블이다. 샘플링 데이터에 포함된 제1 샘플링 레이트는 단위 시간당 샘플링될 3D 점군 데이터들의 개수에 관한 정보이고, 제2 샘플링 레이트는 하나의 3D 점군 데이터를 구성할 점들의 개수에 관한 정보이다.The input/output unit 110 may receive input of a sampling table from a user. Here, the sampling table is a table in which reference information for sampling only some data from 3D point cloud data obtained by lidar and the distance between the vehicle 10 and the object are mapped to each other. The first sampling rate included in the sampling data is information about the number of 3D point cloud data to be sampled per unit time, and the second sampling rate is information about the number of points to configure one 3D point cloud data.
다음 구성으로, 다중 센서 제어부(115)는 차량(10)에 고정 설치된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)를 제어할 수 있다. With the following configuration, the multi-sensor controller 115 may control the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 fixedly installed in the vehicle 10.
구체적으로, 다중 센서 제어부(115)는 통신부(105)를 통해 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보 중에서 하나 이상을 수신할 수 있다. 예를 들어, 다중 센서 제어부(115)는 통신부(105)를 통해 감지 데이터를 수신할 수 있으며, 상황에 따라 3D 점군 데이터, 2D 이미지 및 거리 정보 중 하나 이상을 추가적으로 수신할 수 있다.Specifically, the multi-sensor controller 115 may receive one or more of sensing data, 3D point cloud data, 2D image, and distance information through the communication unit 105 . For example, the multi-sensor control unit 115 may receive sensing data through the communication unit 105 and may additionally receive one or more of 3D point cloud data, 2D image, and distance information according to circumstances.
여기서, 감지 데이터는 차량(10)에 고정 설치된 레이더(20)에 의해 차량의 주행 방향을 향하여 발사된 전자기파를 반사시킨 점들(points)에 대한 정보이다. 3D 점군 데이터는 차량(10)에 고정 설치된 라이다(30)에 의해 차량의 주위로 방사된 레이저 펄스를 반사시킨 점들에 대한 3차원 정보이다. 2D 이미지는 차량(10)에 고정 설치된 카메라(40)에 의해 촬영된 이미지이다. 그리고, 거리 정보는 차량(10)에 고정 설치된 초음파 센서(50)에 의해 감지된 객체로부터의 거리에 관한 정보이다. Here, the sensing data is information on points at which electromagnetic waves emitted toward the driving direction of the vehicle by the radar 20 fixedly installed in the vehicle 10 are reflected. The 3D point cloud data is three-dimensional information on points obtained by reflecting laser pulses emitted around the vehicle by the LIDAR 30 fixedly installed in the vehicle 10 . The 2D image is an image captured by a camera 40 fixedly installed in the vehicle 10 . Further, the distance information is information about a distance from an object detected by the ultrasonic sensor 50 fixedly installed in the vehicle 10 .
다중 센서 제어부(115)는 수신된 감지 데이터로부터 객체를 식별할 수 있다. 예를 들어, 다중 센서 제어부(125)는 감지 데이터에 포함된 점들 중에서 입출력부(110)에 의해 사전에 설정된 임계 범위 내에서 군집을 형성하고 있는 점들을 추출함으로써, 감지 데이터로부터 객체를 식별할 수 있다.The multi-sensor controller 115 may identify an object from the received sensing data. For example, the multi-sensor control unit 125 may identify an object from the sensing data by extracting points forming a cluster within a threshold range previously set by the input/output unit 110 from among the points included in the sensing data. there is.
다중 센서 제어부(115)는 차량(10)과 감지 데이터로부터 식별된 객체 사이의 거리에 대응하여, 차량(10)에 고정 설치되어 레이저 펄스를 방사할 라이다(30), 2D 이미지를 촬영할 카메라(40) 및 초음파를 발사할 초음파 센서(50) 중 하나 이상을 제어할 수 있다.The multi-sensor control unit 115 corresponds to the distance between the vehicle 10 and the object identified from the sensing data, the lidar 30 fixed to the vehicle 10 to emit laser pulses, and the camera to take a 2D image ( 40) and at least one of the ultrasonic sensor 50 to emit ultrasonic waves.
보다 상세하게, 다중 센서 제어부(115)는 감지 데이터로부터 어떠한 객체도 식별되지 않은 경우, 라이다(30)가 레이저 펄스를 방하지 않도록 제어할 수 있다. In more detail, the multi-sensor controller 115 may control the lidar 30 not to interrupt the laser pulse when no object is identified from the sensing data.
다중 센서 제어부(115)는 차량(10)과 객체 사이의 거리가 입출력부(110)를 통해 사전에 설정된 라이다 인식 범위보다 먼 경우, 라이다(30)가 레이저 펄스를 방사하지 않거나, 또는 사전에 설정된 세기로만 레이저 펄스를 방사하도록 제어할 수 있다.When the distance between the vehicle 10 and the object is greater than the lidar recognition range previously set through the input/output unit 110, the multi-sensor control unit 115 prevents the lidar 30 from emitting a laser pulse, or It can be controlled to emit laser pulses only with the intensity set in .
다중 센서 제어부(115)는 차량(10)과 객체 사이의 거리가 라이다 인식 범위보다 먼 경우, 차량(10)에 고정 설치된 복수 개의 카메라(40)가 2D 이미지를 촬영하지 않으며, 초음파 센서(50)가 초음파를 발사하지 않도록 제어할 수 있다.When the distance between the vehicle 10 and the object is greater than the LIDAR recognition range, the multi-sensor control unit 115 does not capture 2D images from the plurality of cameras 40 fixed to the vehicle 10, and the ultrasonic sensor 50 ) can be controlled so that it does not emit ultrasonic waves.
다중 센서 제어부(115)는 차량(10)과 객체 사이의 거리가 라이다 인식 범위 이내인 경우, 객체로부터의 거리에 비례하여 라이다(30)의 레이저 펄스 방사 주기(period)를 길게 하거나 또는 짧게 제어할 수 있다. When the distance between the vehicle 10 and the object is within the lidar recognition range, the multi-sensor control unit 115 lengthens or shortens the laser pulse radiation period of the lidar 30 in proportion to the distance from the object. You can control it.
다중 센서 제어부(115)는 차량(10)과 객체 사이의 거리가 입출력부(110)를 통해 사전에 설정된 특정 가능 범위 이내인 경우, 차량(10)에 고정 설치된 복수 개의 카메라(40)들이 2D 이미지를 촬영하도록 제어할 수 있다. 이 경우, 특정 가능 범위는 라이다 인식 범위보다 좁은 범위에 해당할 수 있다.When the distance between the vehicle 10 and the object is within a specific possible range previously set through the input/output unit 110, the multi-sensor control unit 115 detects a 2D image by a plurality of cameras 40 fixed to the vehicle 10. can be controlled to shoot. In this case, the specific possible range may correspond to a narrower range than the LIDAR recognition range.
다중 센서 제어부(115)는 차량(10)과 객체 사이의 거리에 대응하여, 복수 개의 카메라(40)들이 촬영할 2D 이미지의 해상도를 다르게 설정할 수 있다. 예를 들어, 다중 센서 제어부(115)는 차량(10)과 객체 사이의 거리가 가까워질수록, 복수 개의 카메라(40)들이 촬영할 2D 이미지의 해상도가 높아지도록 설정할 수 있다.The multi-sensor controller 115 may differently set resolutions of 2D images to be captured by the plurality of cameras 40 in correspondence to the distance between the vehicle 10 and the object. For example, the multi-sensor controller 115 may set the resolution of a 2D image to be captured by the plurality of cameras 40 to increase as the distance between the vehicle 10 and the object decreases.
또한, 다중 센서 제어부(115)는 감지 데이터 포함된 객체의 시계열적 위치 변화를 기초로 객체의 이동 경로를 추정할 수 있다. 다중 센서 제어부(115)는 복수 개의 카메라(40)들 중에서 추정된 객체의 이동 경로에 대응하는 방향을 촬영하는 카메라를 식별할 수 있다. 그리고, 다중 센서 제어부(115)는 객체의 이동 경로에 대응하는 방향을 촬영하는 카메라의 촬영 주기를 다른 방향을 촬영하는 카메라보다 짧게 설정할 수 있다. In addition, the multi-sensor control unit 115 may estimate the moving path of the object based on the time-sequential position change of the object included in the sensing data. The multi-sensor controller 115 may identify a camera that photographs a direction corresponding to the estimated movement path of the object from among the plurality of cameras 40 . In addition, the multi-sensor controller 115 may set a shorter shooting cycle of a camera that captures a direction corresponding to the moving path of the object than a camera that captures other directions.
그리고, 다중 센서 제어부(115)는 차량(10)과 객체 사이의 거리가 입출력부(110)를 통해 사전에 설정된 접촉 가능 범위 이내인 경우, 차량(10)에 고정 설치된 복수 개의 초음파 센서(50)들이 초음파를 발사하도록 제어할 수 있다. 이 경우, 접촉 가능 범위는 특정 가능 범위보다 좁은 범위에 해당할 수 있다. In addition, the multi-sensor control unit 115 provides a plurality of ultrasonic sensors 50 fixed to the vehicle 10 when the distance between the vehicle 10 and the object is within a contactable range preset through the input/output unit 110. They can be controlled to emit ultrasonic waves. In this case, the possible contact range may correspond to a narrower range than the specific possible range.
다음 구성으로, 데이터 후처리부(120)는 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 수집된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 대상으로 후처리를 수행할 수 있다.With the following configuration, the data post-processing unit 120 collects detection data, 3D point cloud data, 2D image, and distance information from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 as targets. Post-processing can be done.
구체적으로, 데이터 후처리부(120)는 통신부(105)를 통해 감지 데이터, 3D 점군 데이터들, 2D 이미지들 및 거리 정보 중에서 하나 이상을 수신할 수 있다. 예를 들어, 데이터 후처리부(120)는 통신부(105)를 통해 감지 데이터 및 3D 점군 데이터들을 수신할 수 있으며, 상황에 따라 2D 이미지들 및 거리 정보 중 하나 이상을 추가적으로 수신할 수 있다.Specifically, the data post-processing unit 120 may receive one or more of sensing data, 3D point cloud data, 2D images, and distance information through the communication unit 105 . For example, the data post-processing unit 120 may receive sensing data and 3D point cloud data through the communication unit 105, and may additionally receive one or more of 2D images and distance information depending on circumstances.
데이터 후처리부(120)는 수신된 감지 데이터로부터 객체를 식별할 수 있다. 예를 들어, 데이터 후처리부(125)는 감지 데이터에 포함된 점들 중에서 입출력부(110)에 의해 사전에 설정된 임계 범위 내에서 군집을 형성하고 있는 점들을 추출함으로써, 감지 데이터로부터 객체를 식별할 수 있다.The data post-processing unit 120 may identify an object from the received sensing data. For example, the data post-processing unit 125 may identify an object from the sensing data by extracting points forming a cluster within a threshold range previously set by the input/output unit 110 from among the points included in the sensing data. there is.
또한, 데이터 후처리부(120)는 3D 점군 데이터들에 포함된 좌표들 중에서 식별된 객체가 위치하고 있는 영역을 중심으로, 라이다(30)의 레이저 펄스가 도달할 수 있는 영역을 관심 영역(region of interest)과 비관심 영역(region of uninterested)으로 구분할 수 있다.In addition, the data post-processing unit 120 selects an area to which the laser pulse of the LIDAR 30 can reach, centered on the area where the identified object is located among the coordinates included in the 3D point cloud data, as a region of interest (ROI). interest) and regions of uninterested.
데이터 후처리부(120)는 차량(10)과 감지 데이터로부터 식별된 객체 사이의 거리에 대응하여, 라이다(30)에 의해 획득된 복수의 3D 점군 데이터들, 카메라(40)에 의해 촬영된 복수의 2D 이미지들 및 초음파 센서(50)에 의해 감지된 거리 정보 중 하나 이상을 필터링(filtering)할 수 있다.The data post-processing unit 120 corresponds to the distance between the vehicle 10 and the object identified from the sensing data, the plurality of 3D point cloud data obtained by the lidar 30 and the plurality of points photographed by the camera 40 One or more of the 2D images of and distance information sensed by the ultrasonic sensor 50 may be filtered.
보다 상세하게, 데이터 후처리부(120)는 입출력부(110)에 의해 사전에 설정된 샘플링 테이블로부터, 차량(10)과 객체 사이의 거리에 대응하는 제1 샘플링 레이트(sampling rate)를 식별할 수 있다. 데이터 후처리부(120)는 식별된 제1 샘플링 레이트에 따라 복수의 3D 점군 데이터들을 샘플링하여 단위 시간당 3D 점군 데이터들의 개수를 감소시킬 수 있다.In more detail, the data post-processing unit 120 may identify a first sampling rate corresponding to the distance between the vehicle 10 and the object from the sampling table previously set by the input/output unit 110. . The data post-processing unit 120 may reduce the number of 3D point cloud data per unit time by sampling a plurality of 3D point cloud data according to the identified first sampling rate.
또한, 데이터 후처리부(120)는 샘플링 테이블로부터 차량(10)과 객체 사이의 거리에 대응하는 제2 샘플링 레이트를 식별할 수 있다. 데이터 후처리부(120)는 식별된 제2 샘플링 레이트에 따라 복수의 3D 점군 데이터들을 샘플링하여 각각의 3D 점군 데이터를 구성하고 있는 점들의 개수를 감소시킬 수 있다.Also, the data post-processing unit 120 may identify a second sampling rate corresponding to the distance between the vehicle 10 and the object from the sampling table. The data post-processing unit 120 may reduce the number of points constituting each 3D point cloud data by sampling a plurality of 3D point cloud data according to the identified second sampling rate.
한편, 데이터 후처리부(120)는 복수의 2D 이미지들 중에서 비관심 영역을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들을, 관심 영역을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들보다 낮은 해상도(resolution)로 재압축할 수 있다.On the other hand, the data post-processing unit 120 converts 2D images captured by the camera 40 that captures the region of interest from among a plurality of 2D images to 2D images captured by the camera 40 that captures the region of interest. It can be recompressed to a lower resolution.
데이터 후처리부(120)는 복수의 2D 이미지들 중에서 비관심 영역을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들을 샘플링하여 단위 시간당 2D 이미지들의 개수를 감소시킬 수 있다.The data post-processing unit 120 may reduce the number of 2D images per unit time by sampling 2D images captured by the camera 40 that captures the region of interest among a plurality of 2D images.
데이터 후처리부(120)는 복수의 2D 이미지들 중에서 비관심 영역을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들의 색상 정보를 압축하기 위한 크로마 서브샘플링(chroma subsampling)의 크기를 확장시킨 후 재압축할 수 있다.The data post-processing unit 120 expands the size of chroma subsampling for compressing color information of 2D images captured by the camera 40 that captures the region of interest among a plurality of 2D images, and then reproduces the data post-processing unit 120. can be compressed.
그리고, 데이터 후처리부(120)는 차량(10)과 객체 사이의 거리가 입출력부(110)를 통해 사전에 설정된 특정 가능 범위보다 먼 경우, 초음파 센서(50)에 의해 감지된 거리 정보들을 폐기할 수도 있다.Further, the data post-processing unit 120 discards the distance information detected by the ultrasonic sensor 50 when the distance between the vehicle 10 and the object is longer than a specific possible range previously set through the input/output unit 110. may be
다음 구성으로, 오차 보정부(125)는 차량(10)에 고정 설치된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)의 설치 위치에 따른 오차를 보정할 수 있다.With the following configuration, the error correcting unit 125 may correct errors according to installation positions of the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 fixedly installed in the vehicle 10. .
구체적으로, 오차 보정부(125)는 통신부(105)를 통해 감지 데이터, 3D 점군 데이터들, 2D 이미지들 및 거리 정보 중에서 하나 이상을 수신할 수 있다. 예를 들어, 데이터 후처리부(120)는 통신부(105)를 통해 감지 데이터 및 3D 점군 데이터들을 수신할 수 있으며, 상황에 따라 2D 이미지들 및 거리 정보 중 하나 이상을 추가적으로 수신할 수 있다.Specifically, the error correction unit 125 may receive one or more of sensing data, 3D point cloud data, 2D images, and distance information through the communication unit 105 . For example, the data post-processing unit 120 may receive sensing data and 3D point cloud data through the communication unit 105, and may additionally receive one or more of 2D images and distance information depending on circumstances.
오차 보정부(125)는 차량(10)에 고정 설치된 레이더(20)가 전자기파 신호를 발사한 제1 지점을 식별할 수 있다. 즉, 제1 지점은 차량(10) 내에 레이더(20)가 고정 설치된 지점을 의미한다. 만약, 차량(10)에 복수 개의 레이더(20)가 설치된 경우, 제1 지점의 수 또한 복수 개가 될 수 있다.The error correction unit 125 may identify a first point where the radar 20 fixedly installed in the vehicle 10 emits an electromagnetic wave signal. That is, the first point means a point where the radar 20 is fixedly installed in the vehicle 10 . If a plurality of radars 20 are installed in the vehicle 10, the number of first points may also be plural.
오차 보정부(125)는 차량(10)에 고정 설치된 라이다(30)가 레이저 펄스를 방사한 제2 지점을 식별할 수 있다. 즉, 제2 지점은 차량(10) 내에 라이다(30)가 고정 설치된 지점을 의미한다. 만약, 차량(10)에 복수 개의 라이다(30)가 설치된 경우, 제2 지점의 수 또한 복수 개가 될 수 있다.The error correction unit 125 may identify a second point where the LIDAR 30 fixedly installed in the vehicle 10 emits a laser pulse. That is, the second point means a point where the lidar 30 is fixedly installed in the vehicle 10 . If a plurality of lidars 30 are installed in the vehicle 10, the number of second points may also be plural.
이와 같은, 제1 지점 및 제2 지점은 레이더(20)와 라이다(30)가 고정 설치된 차량(10)의 차종, 크기, 인공지능(AI)의 학습 목표 등에 따라 사전에 미리 설정될 수 있으며, 이에 한정되지 않는다.Such a first point and a second point may be set in advance according to the model and size of the vehicle 10 in which the radar 20 and the lidar 30 are fixedly installed, the learning goal of artificial intelligence (AI), and the like, , but not limited thereto.
오차 보정부(125)는 식별된 제1 지점과 제2 지점이 서로 동일한 위치로 인식될 수 있도록, 감지 데이터에 포함된 점들의 좌표와 3D 점군 데이터에 포함된 점들의 좌표를 보정할 수 있다.The error correction unit 125 may correct coordinates of points included in the sensed data and coordinates of points included in the 3D point cloud data so that the identified first and second points may be recognized as the same position.
보다 상세하게, 오차 보정부(125)는 감지 데이터로부터 객체를 식별할 수 있다. 예를 들어, 오차 보정부(125)는 감지 데이터에 포함된 점들 중에서 입출력부(110)에 의해 사전에 설정된 임계 범위 내에서 군집을 형성하고 있는 점들을 추출함으로써, 감지 데이터로부터 객체를 식별할 수 있다.In more detail, the error correction unit 125 may identify an object from sensing data. For example, the error correction unit 125 may identify an object from the sensing data by extracting points forming a cluster within a threshold range previously set by the input/output unit 110 from among the points included in the sensing data. there is.
오차 보정부(125)는 감지 데이터로부터 객체가 식별되는 경우에 한하여 감지 데이터 포함된 점들의 좌표와 3D 점군 데이터에 포함된 점들의 좌표를 보정하고, 감지 데이터로부터 어떠한 객체도 식별되지 않은 경우에는 감지 데이터 포함된 점들의 좌표와 3D 점군 데이터에 포함된 점들의 좌표를 그대로 유지할 수 있다. The error correction unit 125 corrects the coordinates of the points included in the sensed data and the coordinates of the points included in the 3D point cloud data only when an object is identified from the sensed data, and when no object is identified from the sensed data, the error corrector 125 corrects the coordinates of the points included in the sensed data The coordinates of the points included in the data and the coordinates of the points included in the 3D point cloud data can be maintained as they are.
한편, 오차 보정부(125)는 3차원 좌표를 가지는 가상의 기준점(standard point)을 설정한 이후, 제1 지점과 제2 지점이 기준점에 위치하는 것으로 인식되도록, 감지 데이터에 포함된 점들의 좌표와 3D 점군 데이터에 포함된 점들의 좌표를 보정할 수 있다. Meanwhile, the error correction unit 125 sets a virtual standard point having three-dimensional coordinates, and then coordinates of points included in the sensing data so that the first point and the second point are recognized as being located at the reference point. and coordinates of points included in 3D point cloud data can be corrected.
예를 들어, 오차 보정부(125)는 차량(10)의 중심점(center point)을 기준점으로 설정한 이후, 제1 지점과 제2 지점이 기준점에 위치하는 것으로 인식되도록, 감지 데이터에 포함된 점들의 좌표와 3D 점군 데이터에 포함된 점들의 좌표를 보정할 수 있다.For example, after setting the center point of the vehicle 10 as a reference point, the error compensating unit 125 recognizes that the first and second points are located at the reference point, so that the points included in the detected data The coordinates of points and the coordinates of points included in 3D point cloud data can be corrected.
한편, 레이더(20)에 의해 획득된 감지 데이터 및 라이다(30)에 의해 획득된 3D 점군 데이터는 전자기파 또는 레이저 펄스를 반사시킨 점들의 좌표로 구성되어, 좌표의 값의 보정을 통해 관측점(즉, 제1 지점 및 제2 지점)을 일치시킬 수 있다. 그러나, 카메라(40)에 의해 촬영된 2D 이미지는 색상 정보로 구성되어 있어 관측점을 일치시킬 수가 없다. 따라서, 오차 보정부(125)는 레이더(20)의 제1 지점과 라이다(30)의 제2 지점을 카메라(40)가 2D 이미지를 촬영한 지점으로 보정할 수 있는 수식(formula)을 제공할 수 있다. On the other hand, the sensing data obtained by the radar 20 and the 3D point cloud data obtained by the LIDAR 30 are composed of coordinates of points where electromagnetic waves or laser pulses are reflected, and observation points (ie, observation points) through correction of coordinate values. , the first point and the second point) can be matched. However, since the 2D image captured by the camera 40 is composed of color information, observation points cannot be matched. Therefore, the error correction unit 125 provides a formula for correcting the first point of the radar 20 and the second point of the LIDAR 30 to the point where the camera 40 captures the 2D image. can do.
보다 상세하게, 오차 보정부(125)는 복수 개의 카메라(40)들이 설치된 각각의 촬영 지점들과 기준점 사이의 3차원 벡터 값들을 각각 산출할 수 있다. 오차 보정부(125)는 산출된 3차원 벡터 값들을 기초로, 제1 지점 또는 제2 지점이 각각의 촬영 지점에 위치하는 것으로 인식될 수 있도록, 감지 데이터 또는 3D 점군 데이터들을 보정할 수 있는 수식을 도출할 수 있다.In more detail, the error correcting unit 125 may calculate 3D vector values between respective photographing points where the plurality of cameras 40 are installed and a reference point. The error correction unit 125 calculates a formula for correcting sensing data or 3D point cloud data so that the first point or the second point can be recognized as being located at each imaging point, based on the calculated 3D vector values. can be derived.
또한, 오차 보정부(125)는 차량(10)에 고정 설치된 라이다(30)가 고정형 라이다(static lidar)에 해당되는지, 또는 회전형 라이다(rotative lidar)에 해당되는지 여부와 무관하게 3D 점군 데이터를 처리할 수 있도록 보정할 수 있다.In addition, the error correcting unit 125 provides a 3D image regardless of whether the lidar 30 fixed to the vehicle 10 corresponds to a static lidar or a rotative lidar. It can be calibrated to handle point cloud data.
보다 상세하게, 오차 보정부(125)는 차량(10)에 고정 설치된 라이다(30)가 차량(10) 내의 서로 다른 지점에 이격되게 설치된 복수 개의 고정형 라이다 장치로 구성된 경우, 복수 개의 라이다 장치에 의해 각각 획득된 3D 점군 데이터들에 포함된 점들의 좌표를 조합하여, 기준점을 중심으로 회전하며 레이저 펄스를 방사하는 회전형 라이다에 의해 획득된 구형 형태를 가지는 하나의 3D 점군 데이터를 생성할 수 있다.More specifically, the error compensating unit 125 is a case where the lidar 30 fixedly installed in the vehicle 10 is composed of a plurality of fixed lidar devices installed spaced apart from each other at different points in the vehicle 10, a plurality of lidar By combining the coordinates of the points included in the 3D point cloud data acquired by the device, one 3D point cloud data having a spherical shape obtained by a rotary lidar that rotates around a reference point and emits laser pulses is generated can do.
이와 반대로, 오차 보정부(125)는 차량(10)에 고정 설치된 라이다(30)가 제2 지점을 중심으로 회전하며 레이저 펄스를 방사하는 회전형 라이다 장치로 구성된 경우, 회전형 라이다에 의해 획득된 하나의 3D 점군 데이터들에 포함된 점들의 좌표를 레이저 펄스가 방사된 방향성을 기준으로 복수 개로 분리하여, 복수 개의 고정형 라이다 장치에 의해 각각 획득된 형태를 가지는 복수 개의 3D 점군 데이터를 생성할 수 있다. Conversely, the error correction unit 125 is configured as a rotary lidar device in which the lidar 30 fixedly installed in the vehicle 10 rotates around the second point and emits laser pulses. By dividing the coordinates of the points included in one 3D point cloud data obtained by the laser pulse into a plurality of points based on the direction in which the laser pulse was emitted, a plurality of 3D point cloud data each having a form obtained by a plurality of fixed lidar devices is obtained. can create
한편, 오차 보정부(125)는 복수 개의 초음파 센서(50)들이 설치된 각각의 감지 지점들이 기준점에 위치하는 것으로 인식되도록, 거리 정보들에 포함된 거리 값들을 보정할 수도 있다. Meanwhile, the error correction unit 125 may correct distance values included in the distance information so that each sensing point where the plurality of ultrasonic sensors 50 are installed is recognized as being located at a reference point.
다음 구성으로, 데이터 제공부(130)는 인공지능(AI)의 기계 학습에 사용될 수 있는 기초 데이터를 학습 데이터 생성 장치(200)에 제공할 수 있다.With the following configuration, the data providing unit 130 may provide basic data that can be used for machine learning of artificial intelligence (AI) to the learning data generating device 200 .
구체적으로, 데이터 제공부(130)는 다중 센서 제어부(115)에 의해 제어된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)를 통하여 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보가 수집되고, 수집된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보가 데이터 후처리부(120)에 의해 후처리된 이후, 후처리된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보가 오차 보정부(125)에 의해 보정되면, 보정이 완료된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 통신부(105)를 통해 학습 데이터 생성 장치(200)에 전송할 수 있다.Specifically, the data providing unit 130 provides sensing data, 3D point cloud data, After the 2D image and distance information are collected, and the collected sensing data, 3D point cloud data, 2D image, and distance information are post-processed by the data post-processing unit 120, the post-processed sensing data, 3D point cloud data, 2D image, and When the distance information is corrected by the error correction unit 125, the corrected sensing data, 3D point cloud data, 2D image, and distance information may be transmitted to the learning data generating device 200 through the communication unit 105.
이하, 상술한 바와 같은 학습 데이터 수집 장치(100)의 논리적 구성요소를 구현하기 위한 하드웨어에 대하여 보다 구체적으로 설명한다.Hereinafter, hardware for implementing the above-described logical components of the learning data collection device 100 will be described in more detail.
도 4는 본 발명의 일 4 is one of the present invention 실시예에in the examples 따른 학습 데이터 수집 장치의 하드웨어 구성도이다. It is a hardware configuration diagram of the learning data collection device according to FIG.
도 4에 도시된 바와 같이, 학습 데이터 수집 장치(100)는 프로세서(Processor, 150), 메모리(Memory, 155), 송수신기(Transceiver, 160), 입출력장치(Input/output device, 165), 데이터 버스(Bus, 170) 및 스토리지(Storage, 175)를 포함하여 구성될 수 있다. As shown in FIG. 4, the learning data collection device 100 includes a processor (150), a memory (155), a transceiver (160), an input/output device (165), and a data bus. (Bus, 170) and storage (Storage, 175) can be configured.
프로세서(150)는 메모리(155)에 상주된 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180a)에 따른 명령어를 기초로, 학습 데이터 수집 장치(100)의 동작 및 기능을 구현할 수 있다. 메모리(155)에는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180a)가 상주(loading)될 수 있다. 송수신기(160)는 레이더(20), 라이다(30), 카메라(40), 초음파 센서(50) 및 학습 데이터 생성 장치(200)와 데이터를 송수신할 수 있다. 입출력장치(165)는 학습 데이터 수집 장치(100)의 동작에 필요한 데이터를 입력 받고, 수집된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 출력할 수 있다. 데이터 버스(170)는 프로세서(150), 메모리(155), 송수신기(160), 입출력장치(165) 및 스토리지(175)와 연결되어, 각각의 구성 요소 사이가 서로 데이터를 전달하기 위한 이동 통로의 역할을 수행할 수 있다.The processor 150 may implement the operation and function of the learning data collection device 100 based on instructions according to the software 180a in which the method according to the embodiments of the present invention is resident in the memory 155. . Software 180a in which a method according to embodiments of the present invention is implemented may be loaded in the memory 155 . The transceiver 160 may transmit and receive data to and from the radar 20 , lidar 30 , camera 40 , ultrasonic sensor 50 , and learning data generating device 200 . The input/output device 165 may receive data required for operation of the learning data collection device 100 and output collected sensing data, 3D point cloud data, 2D image, and distance information. The data bus 170 is connected to the processor 150, the memory 155, the transceiver 160, the input/output device 165, and the storage 175, and is a movement path for transferring data between each component. role can be fulfilled.
스토리지(175)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180a)의 실행을 위해 필요한 애플리케이션 프로그래밍 인터페이스(Application Programming Interface, API), 라이브러리(library) 파일, 리소스(resource) 파일 등을 저장할 수 있다. 스토리지(175)는 본 발명의 실시예들에 따른 방법이 구현된 소프트웨어(180b)를 저장할 수 있다. 또한, 스토리지(175)는 본 발명의 실시예들에 따른 방법의 수행에 필요한 정보들을 저장할 수 있다. The storage 175 stores an application programming interface (API), a library file, a resource file, etc. necessary for the execution of the software 180a in which the method according to the embodiments of the present invention is implemented. can be saved The storage 175 may store software 180b in which a method according to embodiments of the present invention is implemented. Also, the storage 175 may store information necessary for performing a method according to embodiments of the present invention.
본 발명의 일 실시예에 따르면, 메모리(155)에 상주되거나 또는 스토리지(175)에 저장된 레이저 프리뷰를 이용한 학습 데이터 수집 방법을 구현하기 위한 소프트웨어(180a, 180b)는 프로세서(150)가 차량(10)에 고정 설치된 레이더(20)로부터 감지 데이터를 상기 송수신기(160)를 통해 수신하는 단계, 프로세서(150)가 상기 수신된 감지 데이터로부터 객체의 식별하는 단계, 및 프로세서(150)가 상기 식별된 객체로부터의 거리에 대응하여, 상기 차량에 고정 설치되어 레이저 펄스를 방사할 라이다(30)를 제어하는 단계를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to an embodiment of the present invention, the software 180a, 180b for implementing a learning data collection method using a laser preview resident in the memory 155 or stored in the storage 175 is provided by the processor 150 in the vehicle 10 ) receiving sensing data from a radar 20 fixedly installed through the transceiver 160, identifying an object from the received sensing data by a processor 150, and identifying the identified object by a processor 150 Corresponding to the distance from, it may be a computer program recorded on a recording medium to execute the step of controlling the lidar 30 that is fixedly installed in the vehicle and emits laser pulses.
본 발명의 다른 실시예에 따르면, 메모리(155)에 상주되거나 또는 스토리지(175)에 저장된 데이터 처리 방법을 구현하기 위한 소프트웨어(180a, 180b)는 프로세서(150)가 차량(10)에 고정 설치된 레이더(20)에 의해 획득된 감지 데이터 및 상기 차량(10)에 고정 설치된 라이다(30)에 의해 획득된 복수의 3차원 점군 데이터들을 상기 송수신기(160)를 통해 수신하는 단계, 상기 프로세서(150)가 상기 수신된 감지 데이터로부터 객체를 식별하는 단계, 및 상기 프로세서(150)가 상기 차량(10)과 상기 객체 사이의 거리에 대응하여, 상기 라이다(30)에 의해 획득된 복수의 3D 점군 데이터들을 필터링(filtering)하는 단계를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to another embodiment of the present invention, the software (180a, 180b) for implementing a data processing method resident in the memory 155 or stored in the storage 175 is a radar in which the processor 150 is fixed to the vehicle 10 Receiving the sensing data obtained by (20) and a plurality of 3D point cloud data obtained by the LIDAR 30 fixedly installed in the vehicle 10 through the transceiver 160, the processor 150 Identifying an object from the received sensing data, and the processor 150 corresponding to the distance between the vehicle 10 and the object, a plurality of 3D point cloud data acquired by the lidar 30 It may be a computer program recorded on a recording medium to execute the step of filtering them.
본 발명의 또 다른 실시예에 따르면, 메모리(155)에 상주되거나 또는 스토리지(175)에 저장된 오차 보정 방법을 구현하기 위한 소프트웨어(180a, 180b)는 프로세서(150)가 차량(10)에 고정 설치된 레이더(20)에 의해 획득된 감지 데이터 및 상기 차량(10)에 고정 설치된 라이다(30)에 의해 획득된 3D 점군 데이터들을 상기 송수신기(160)를 통해 수신하는 단계, 상기 프로세서(150)가 상기 레이더(20)가 전자기파 신호를 발사한 제1 지점을 식별하고, 상기 라이다(30)가 레이저 펄스를 방사한 제2 지점을 식별하는 단계, 및 상기 프로세서(150)가 상기 제1 지점과 상기 제2 지점이 서로 동일한 위치로 인식되도록, 상기 감지 데이터에 포함된 점들의 좌표와 상기 3D 점군 데이터들에 포함된 점들의 좌표를 보정하는 단계를 실행시키기 위하여 기록매체에 기록된 컴퓨터 프로그램이 될 수 있다.According to another embodiment of the present invention, the software (180a, 180b) for implementing the error correction method resident in the memory 155 or stored in the storage 175 is a processor 150 fixedly installed in the vehicle 10 Receiving sensing data obtained by the radar 20 and 3D point cloud data obtained by the LIDAR 30 fixedly installed in the vehicle 10 through the transceiver 160, wherein the processor 150 performs the Identifying a first point where the radar 20 emits an electromagnetic wave signal and identifying a second point where the lidar 30 emits a laser pulse, and the processor 150 determines the first point and the It may be a computer program recorded on a recording medium to execute the step of correcting the coordinates of the points included in the sensed data and the coordinates of the points included in the 3D point cloud data so that the second points are recognized as the same position. there is.
보다 구체적으로, 프로세서(150)는 ASIC(Application-Specific Integrated Circuit), 다른 칩셋(chipset), 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리(155)는 ROM(Read-Only Memory), RAM(Random Access Memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 송수신기(160)는 유무선 신호를 처리하기 위한 베이스밴드 회로를 포함할 수 있다. 입출력장치(165)는 키보드(keyboard), 마우스(mouse), 및/또는 조이스틱(joystick) 등과 같은 입력 장치 및 액정표시장치(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic LED, OLED) 및/또는 능동형 유기 발광 다이오드(Active Matrix OLED, AMOLED) 등과 같은 영상 출력 장치 프린터(printer), 플로터(plotter) 등과 같은 인쇄 장치를 포함할 수 있다. More specifically, the processor 150 may include an Application-Specific Integrated Circuit (ASIC), another chipset, a logic circuit, and/or a data processing device. The memory 155 may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices. The transceiver 160 may include a baseband circuit for processing wired/wireless signals. The input/output device 165 includes an input device such as a keyboard, a mouse, and/or a joystick, and a Liquid Crystal Display (LCD), an Organic LED (OLED), and/or a liquid crystal display (LCD). Alternatively, an image output device such as an active matrix OLED (AMOLED) may include a printing device such as a printer or a plotter.
본 명세서에 포함된 실시 예가 소프트웨어로 구현될 경우, 상술한 방법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리(155)에 상주되고, 프로세서(150)에 의해 실행될 수 있다. 메모리(155)는 프로세서(150)의 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서(150)와 연결될 수 있다.When the embodiments included in this specification are implemented as software, the above-described method may be implemented as a module (process, function, etc.) that performs the above-described functions. A module may reside in memory 155 and be executed by processor 150 . The memory 155 may be internal or external to the processor 150 and may be connected to the processor 150 by various well-known means.
도 4에 도시된 각 구성요소는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Each component shown in FIG. 4 may be implemented by various means, eg, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one embodiment of the present invention includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), FPGAs ( Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, etc.
또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한, 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of implementation by firmware or software, an embodiment of the present invention is implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above, and is stored on a recording medium readable through various computer means. can be recorded. Here, the recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software. For example, recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs (Compact Disk Read Only Memory) and DVDs (Digital Video Disks), floptical It includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, such as a floptical disk, and ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes generated by a compiler. These hardware devices may be configured to operate as one or more pieces of software to perform the operations of the present invention, and vice versa.
이하, 상술한 바와 같은 본 발명의 다양한 실시예에 따른 인공지능 학습 시스템의 특징들에 대하여, 도면을 참조하여 구체적으로 설명하기로 한다.Hereinafter, features of the artificial intelligence learning system according to various embodiments of the present invention as described above will be described in detail with reference to the drawings.
도 5 Fig. 5 내지 도degree 7은 본 발명의 일 7 is one of the present invention 실시예에in the examples 따라 다중 센서들을 제어하는 과정을 설명하기 위한 예시도이다. It is an exemplary view for explaining a process of controlling multiple sensors according to the
도 5 내지 도 7에 도시된 바와 같이, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)를 제어할 수 있다. 5 to 7, the learning data collection device 100 according to an embodiment of the present invention includes a radar 20, a lidar 30, a camera 40 and The ultrasonic sensor 50 may be controlled.
구체적으로, 학습 데이터 수집 장치(100)는 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보 중에서 하나 이상을 수신할 수 있다.Specifically, the learning data collection device 100 receives one or more of sensing data, 3D point cloud data, 2D image, and distance information from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 can do.
여기서, 감지 데이터는 차량(10)에 고정 설치된 레이더(20)에 의해 차량의 주행 방향을 향하여 발사된 전자기파를 반사시킨 점들(points)에 대한 정보이다. 3D 점군 데이터는 차량(10)에 고정 설치된 라이다(30)에 의해 차량의 주위로 방사된 레이저 펄스를 반사시킨 점들에 대한 3차원 정보이다. 2D 이미지는 차량(10)에 고정 설치된 카메라(40)에 의해 촬영된 이미지이다. 그리고, 거리 정보는 차량(10)에 고정 설치된 초음파 센서(50)에 의해 감지된 객체로부터의 거리에 관한 정보이다. Here, the sensing data is information on points at which electromagnetic waves emitted toward the driving direction of the vehicle by the radar 20 fixedly installed in the vehicle 10 are reflected. The 3D point cloud data is three-dimensional information on points obtained by reflecting laser pulses emitted around the vehicle by the LIDAR 30 fixedly installed in the vehicle 10 . The 2D image is an image captured by a camera 40 fixedly installed in the vehicle 10 . Further, the distance information is information about a distance from an object detected by the ultrasonic sensor 50 fixedly installed in the vehicle 10 .
학습 데이터 수집 장치(100)는 수신된 감지 데이터로부터 객체(60)를 식별할 수 있다. 예를 들어, 학습 데이터 수집 장치(100)는 감지 데이터에 포함된 점들 중에서 사전에 설정된 임계 범위 내에서 군집을 형성하고 있는 점들을 추출함으로써, 감지 데이터로부터 객체(60)를 식별할 수 있다.The learning data collection device 100 may identify the object 60 from the received sensing data. For example, the learning data collection apparatus 100 may identify the object 60 from the sensing data by extracting points forming a cluster within a preset threshold range from points included in the sensing data.
학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리(d)에 대응하여, 차량(10)에 고정 설치되어 레이저 펄스를 방사할 라이다(30), 2D 이미지를 촬영할 카메라(40) 및 초음파를 발사할 초음파 센서(50) 중 하나 이상을 제어할 수 있다.The learning data collection device 100 corresponds to the distance d between the vehicle 10 and the object 60, and is fixedly installed in the vehicle 10 to radiate laser pulses, LiDAR 30, and to capture 2D images. At least one of the camera 40 and the ultrasonic sensor 50 to emit ultrasonic waves may be controlled.
보다 상세하게, 학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리(d)가 라이다 인식 범위(31)보다 먼 경우, 라이다(30)가 레이저 펄스를 방사하지 않거나, 또는 사전에 설정된 세기로만 레이저 펄스를 방사하도록 제어할 수 있다. 또한, 학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리(d)가 라이다 인식 범위(31)보다 먼 경우, 복수 개의 카메라(40)가 2D 이미지를 촬영하지 않으며, 초음파 센서(50)가 초음파를 발사하지 않도록 제어할 수 있다.In more detail, in the learning data collection device 100, when the distance d between the vehicle 10 and the object 60 is greater than the lidar recognition range 31, the lidar 30 does not emit laser pulses. Alternatively, the laser pulse may be controlled to be emitted only with a preset intensity. In addition, in the learning data collection device 100, when the distance d between the vehicle 10 and the object 60 is greater than the lidar recognition range 31, the plurality of cameras 40 do not capture 2D images, , the ultrasonic sensor 50 may be controlled not to emit ultrasonic waves.
학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리(d)가 라이다 인식 범위(31) 이내인 경우, 객체(60)로부터의 거리(d)에 비례하여 라이다(30)의 레이저 펄스 방사 주기를 길게 하거나 또는 짧게 제어할 수 있다. When the distance d between the vehicle 10 and the object 60 is within the lidar recognition range 31, the learning data collection device 100 is a lidar in proportion to the distance d from the object 60. The laser pulse radiation period of (30) can be controlled to be long or short.
학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리(d)가 특정 가능 범위(41) 이내인 경우, 차량(10)에 고정 설치된 복수 개의 카메라(40)들이 2D 이미지를 촬영하도록 제어할 수 있다. 이 경우, 특정 가능 범위(41)는 라이다 인식 범위(31)보다 좁은 범위에 해당할 수 있다.When the distance d between the vehicle 10 and the object 60 is within a specific possible range 41, the learning data collection device 100 generates a 2D image by a plurality of cameras 40 fixed to the vehicle 10. can be controlled to shoot. In this case, the specific possible range 41 may correspond to a narrower range than the lidar recognition range 31 .
또한, 학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리(d)에 대응하여, 복수 개의 카메라(40)들이 촬영할 2D 이미지의 해상도를 다르게 설정할 수 있다. 학습 데이터 수집 장치(100)는 감지 데이터 포함된 객체(60)의 시계열적 위치 변화를 기초로 객체(60)의 이동 경로를 추정하고, 추정된 객체(60)의 이동 경로에 대응하는 방향을 촬영하는 카메라를 식별하고, 객체(60)의 이동 경로에 대응하는 방향을 촬영하는 카메라의 촬영 주기를 다른 방향을 촬영하는 카메라보다 짧게 설정할 수 있다. In addition, the learning data collection apparatus 100 may set different resolutions of 2D images to be captured by the plurality of cameras 40 in correspondence to the distance d between the vehicle 10 and the object 60 . The learning data collection device 100 estimates the movement path of the object 60 based on the time-series position change of the object 60 included in the sensing data, and photographs a direction corresponding to the estimated movement path of the object 60. It is possible to identify a camera that captures the object 60 and set a shorter shooting cycle of a camera that shoots a direction corresponding to the moving path of the object 60 than a camera that shoots another direction.
학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리(d)가 접촉 가능 범위(51) 이내인 경우, 차량(10)에 고정 설치된 복수 개의 초음파 센서(50)들이 초음파를 발사하도록 제어할 수 있다. 이 경우, 접촉 가능 범위(51)는 특정 가능 범위(41)보다 좁은 범위에 해당할 수 있다. When the distance d between the vehicle 10 and the object 60 is within the contactable range 51, the learning data collection device 100 uses a plurality of ultrasonic sensors 50 fixedly installed in the vehicle 10 to transmit ultrasonic waves. can be controlled to fire. In this case, the possible contact range 51 may correspond to a narrower range than the specific possible range 41 .
따라서, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 다중 센서들의 데이터 수집 주기 또는 수집할 데이터의 품질을 제어함으로써, 인공지능(AI)의 기계 학습용 데이터들 중에서 상대적으로 중요도가 낮은 데이터를 감소시킬 수 있다.Therefore, the learning data collection apparatus 100 according to an embodiment of the present invention controls the data collection period of multiple sensors or the quality of data to be collected, so that among data for machine learning of artificial intelligence (AI), the importance is relatively low. data can be reduced.
도 8 및 도 9는 본 발명의 일 8 and 9 are one of the present invention 실시예에in the examples 따라 수집된 데이터들에 대하여 About the data collected according to 후처리하는to post-process 과정을 설명하기 위한 예시도이다. It is an example diagram to explain the process.
도 8 및 도 9에 도시된 바와 같이, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 수집된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 대상으로 후처리를 수행할 수 있다.8 and 9, the learning data collection device 100 according to an embodiment of the present invention includes a radar 20, a lidar 30, a camera 40 and Post-processing may be performed on the sensing data, 3D point cloud data, 2D image, and distance information collected from the ultrasonic sensor 50 .
구체적으로, 학습 데이터 수집 장치(100)는 학습 데이터 수집 장치(100)는 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보 중에서 하나 이상을 수신할 수 있다.Specifically, the learning data collection apparatus 100 detects sensing data, 3D point cloud data, and 2D images from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. and distance information may be received.
학습 데이터 수집 장치(100)는 수신된 감지 데이터로부터 객체(60)를 식별할 수 있다. 예를 들어, 학습 데이터 수집 장치(100)는 감지 데이터에 포함된 점들 중에서 사전에 설정된 임계 범위 내에서 군집을 형성하고 있는 점들을 추출함으로써, 감지 데이터로부터 객체(60)를 식별할 수 있다.The learning data collection device 100 may identify the object 60 from the received sensing data. For example, the learning data collection apparatus 100 may identify the object 60 from the sensing data by extracting points forming a cluster within a preset threshold range from points included in the sensing data.
학습 데이터 수집 장치(100)는 3D 점군 데이터들에 포함된 좌표들 중에서 식별된 객체(60)가 위치하고 있는 영역을 중심으로, 라이다(30)의 레이저 펄스가 도달할 수 있는 영역을 관심 영역(ROI)과 비관심 영역으로 구분할 수 있다.The learning data collection apparatus 100 sets the region to which the laser pulse of the lidar 30 can reach, centered on the region where the identified object 60 is located among the coordinates included in the 3D point cloud data, as the region of interest ( ROI) and non-interest regions.
학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리에 대응하여, 라이다(30)에 의해 획득된 복수의 3D 점군 데이터들, 카메라(40)에 의해 촬영된 복수의 2D 이미지들 및 초음파 센서(50)에 의해 감지된 거리 정보 중 하나 이상을 필터링할 수 있다.The learning data collection apparatus 100 corresponds to the distance between the vehicle 10 and the object 60, a plurality of 3D point cloud data obtained by the lidar 30, and a plurality of points photographed by the camera 40. One or more of 2D images and distance information sensed by the ultrasonic sensor 50 may be filtered.
보다 상세하게, 학습 데이터 수집 장치(100)는 샘플링 테이블로부터, 차량(10)과 객체(60) 사이의 거리에 대응하는 제1 샘플링 레이트를 식별하고, 식별된 제1 샘플링 레이트에 따라 복수의 3D 점군 데이터들을 샘플링하여 단위 시간당 3D 점군 데이터들의 개수를 감소시킬 수 있다.More specifically, the learning data collection device 100 identifies a first sampling rate corresponding to the distance between the vehicle 10 and the object 60 from the sampling table, and generates a plurality of 3D images according to the identified first sampling rate. The number of 3D point cloud data per unit time may be reduced by sampling the point cloud data.
또한, 학습 데이터 수집 장치(100)는 샘플링 테이블로부터, 차량(10)과 객체(60) 사이의 거리에 대응하는 제2 샘플링 레이트를 식별하고, 식별된 제2 샘플링 레이트에 따라 복수의 3D 점군 데이터들을 샘플링하여 각각의 3D 점군 데이터를 구성하고 있는 점들의 개수를 감소시킬 수 있다.In addition, the learning data collection apparatus 100 identifies a second sampling rate corresponding to the distance between the vehicle 10 and the object 60 from the sampling table, and generates a plurality of 3D point cloud data according to the identified second sampling rate. It is possible to reduce the number of points constituting each 3D point cloud data by sampling them.
한편, 학습 데이터 수집 장치(100)는 복수의 카메라(40)에 의해 촬영된 복수의 2D 이미지들 중에서 비관심 영역을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들을, 관심 영역(ROI)을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들보다 낮은 해상도로 재압축할 수 있다.On the other hand, the learning data collection apparatus 100 selects the 2D images captured by the camera 40 that captures the region of interest among a plurality of 2D images captured by the plurality of cameras 40 as a region of interest (ROI). The 2D images captured by the camera 40 may be recompressed to a resolution lower than that of the 2D images.
학습 데이터 수집 장치(100)는 복수의 2D 이미지들 중에서 비관심 영역을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들을 샘플링하여 단위 시간당 2D 이미지들의 개수를 감소시킬 수 있다.The training data collection apparatus 100 may reduce the number of 2D images per unit time by sampling 2D images captured by the camera 40 that captures a region of interest among a plurality of 2D images.
학습 데이터 수집 장치(100)는 복수의 2D 이미지들 중에서 비관심 영역을 촬영한 카메라(40)에 의해 촬영된 2D 이미지들의 색상 정보를 압축하기 위한 크로마 서브샘플링의 크기를 확장시킨 후 재압축할 수 있다.The learning data collection apparatus 100 may recompress after expanding the size of chroma subsampling for compressing color information of 2D images captured by the camera 40 that captures a region of non-interest among a plurality of 2D images. there is.
또한, 학습 데이터 수집 장치(100)는 차량(10)과 객체(60) 사이의 거리가 특정 가능 범위보다 먼 경우, 초음파 센서(50)에 의해 감지된 거리 정보들을 폐기할 수도 있다.Also, when the distance between the vehicle 10 and the object 60 is greater than a specific possible range, the learning data collection device 100 may discard distance information detected by the ultrasonic sensor 50 .
따라서, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 다중 센서들에 의해 수집된 데이터들을 필터링함으로써, 인공지능(AI)의 기계 학습용 데이터들 중에서 상대적으로 중요도가 낮은 데이터를 감소시킬 수 있다. 결과적으로, 상대적으로 중요도가 낮은 데이터의 양을 감소시킴으로써, 인공지능(AI)의 기계 학습을 위한 데이터 가공의 부담을 낮출 수 있게 된다.Therefore, the learning data collection apparatus 100 according to an embodiment of the present invention filters data collected by multiple sensors to reduce data of relatively low importance among machine learning data of artificial intelligence (AI). can As a result, by reducing the amount of data of relatively low importance, it is possible to lower the burden of data processing for machine learning of artificial intelligence (AI).
도 10 Fig. 10 내지 도degree 12는 본 발명의 일 12 is one of the present invention 실시예에in the examples 따라 다중 센서들의 오차를 the error of multiple sensors according to 보정하는correcting 과정을 설명하기 위한 예시도이다. It is an example diagram to explain the process.
도 10 내지 도 12에 도시된 바와 같이, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)의 설치 위치에 따른 오차를 보정할 수 있다.10 to 12, the learning data collection device 100 according to an embodiment of the present invention includes a radar 20, a lidar 30, a camera 40 and An error according to the installation position of the ultrasonic sensor 50 may be corrected.
구체적으로, 학습 데이터 수집 장치(100)는 학습 데이터 수집 장치(100)는 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보 중에서 하나 이상을 수신할 수 있다.Specifically, the learning data collection apparatus 100 detects sensing data, 3D point cloud data, and 2D images from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. and distance information may be received.
학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 레이더(20)가 전자기파 신호를 발사한 제1 지점(25)을 식별할 수 있다. 즉, 제1 지점(25)은 차량(10) 내에 레이더(20)가 고정 설치된 지점을 의미한다. 만약, 차량(10)에 복수 개의 레이더(20)가 설치된 경우, 제1 지점(25)의 수 또한 복수 개가 될 수 있다.The learning data collection device 100 may identify a first point 25 from which the radar 20 fixedly installed in the vehicle 10 emits an electromagnetic wave signal. That is, the first point 25 means a point where the radar 20 is fixedly installed in the vehicle 10 . If a plurality of radars 20 are installed in the vehicle 10, the number of first points 25 may also be plural.
학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 라이다(30)가 레이저 펄스를 방사한 제2 지점(35)을 식별할 수 있다. 즉, 제2 지점(35)은 차량(10) 내에 라이다(30)가 고정 설치된 지점을 의미한다. 만약, 차량(10)에 복수 개의 라이다(30)가 설치된 경우, 제2 지점(35)의 수 또한 복수 개가 될 수 있다.The learning data collection device 100 may identify a second point 35 where the LIDAR 30 fixedly installed in the vehicle 10 emits a laser pulse. That is, the second point 35 means a point where the LIDAR 30 is fixedly installed in the vehicle 10 . If a plurality of lidars 30 are installed in the vehicle 10, the number of second points 35 may also be plural.
학습 데이터 수집 장치(100)는 식별된 제1 지점(25)과 제2 지점(35)이 서로 동일한 위치로 인식될 수 있도록, 감지 데이터에 포함된 점들의 좌표와 3D 점군 데이터에 포함된 점들의 좌표를 보정할 수 있다. 보다 상세하게는, 학습 데이터 수집 장치(100)는 3차원 좌표를 가지는 가상의 기준점(standard point)을 설정한 이후, 제1 지점(25)과 제2 지점(35)이 기준점에 위치하는 것으로 인식되도록, 감지 데이터에 포함된 점들의 좌표와 3D 점군 데이터에 포함된 점들의 좌표를 보정할 수 있다. The learning data collection device 100 determines the coordinates of the points included in the sensing data and the points included in the 3D point cloud data so that the identified first point 25 and the second point 35 can be recognized as the same position. Coordinates can be corrected. More specifically, after setting a virtual standard point having three-dimensional coordinates, the learning data collection device 100 recognizes that the first point 25 and the second point 35 are located at the reference point. The coordinates of the points included in the sensing data and the coordinates of the points included in the 3D point cloud data may be corrected as much as possible.
한편, 학습 데이터 수집 장치(100)는 복수 개의 카메라(40)들이 설치된 각각의 촬영 지점들(45)과 기준점 사이의 3차원 벡터 값들을 각각 산출하고, 산출된 3차원 벡터 값들을 기초로, 제1 지점(25) 또는 제2 지점(35)이 각각의 촬영 지점(45)에 위치하는 것으로 인식될 수 있도록, 감지 데이터 또는 3D 점군 데이터들을 보정할 수 있는 수식을 도출할 수 있다.On the other hand, the learning data collection apparatus 100 calculates 3D vector values between each of the photographing points 45 where the plurality of cameras 40 are installed and the reference point, and based on the calculated 3D vector values, An equation capable of correcting sensed data or 3D point cloud data may be derived so that the first point 25 or the second point 35 may be recognized as being located at each imaging point 45 .
한편, 학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 라이다(30)가 차량(10) 내의 서로 다른 지점에 이격되게 설치된 복수 개의 고정형 라이다 장치로 구성된 경우, 복수 개의 라이다 장치에 의해 각각 획득된 3D 점군 데이터들에 포함된 점들의 좌표를 조합하여, 기준점을 중심으로 회전하며 레이저 펄스를 방사하는 회전형 라이다에 의해 획득된 구형 형태를 가지는 하나의 3D 점군 데이터를 생성할 수 있다.On the other hand, when the learning data collection device 100 is composed of a plurality of fixed lidar devices installed at different points in the vehicle 10 and spaced apart from each other in the lidar 30 fixed to the vehicle 10, a plurality of lidar devices Combining the coordinates of the points included in the 3D point cloud data acquired by can
이와 반대로, 학습 데이터 수집 장치(100)는 차량(10)에 고정 설치된 라이다(30)가 제2 지점을 중심으로 회전하며 레이저 펄스를 방사하는 회전형 라이다 장치로 구성된 경우, 회전형 라이다에 의해 획득된 하나의 3D 점군 데이터들에 포함된 점들의 좌표를 레이저 펄스가 방사된 방향성을 기준으로 복수 개로 분리하여, 복수 개의 고정형 라이다 장치에 의해 각각 획득된 형태를 가지는 복수 개의 3D 점군 데이터를 생성할 수도 있다. Conversely, the learning data collection device 100 is a rotary lidar device when the lidar 30 fixed to the vehicle 10 rotates around the second point and emits laser pulses. The coordinates of the points included in one 3D point cloud data obtained by are separated into a plurality of points based on the direction in which the laser pulse was emitted, and a plurality of 3D point cloud data each having a form obtained by a plurality of fixed lidar devices. can also create
따라서, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 다중 센서들의 설치 위치 따른 오차를 보정함으로써, 특정 센서에 의해 인식된 객체의 위치를 다른 센서로부터 획득된 데이터에 곧바로 적용할 수 있게 된다. 결과적으로, 다중 센서들에 의해 제각각 획득된 데이터들에 대한 어노테이션 작업 결과물들을 통합하여 관리할 수 있게 된다.Therefore, the learning data collection device 100 according to an embodiment of the present invention can directly apply the location of an object recognized by a specific sensor to data obtained from other sensors by correcting errors according to the installation positions of multiple sensors. there will be As a result, it is possible to integrate and manage annotation work results for data individually obtained by multiple sensors.
이하, 상술한 바와 같은 본 발명의 다양한 실시예에 따른 학습 데이터 수집 장치(100)의 동작에 대하여, 도면을 참조하여 구체적으로 설명하기로 한다.Hereinafter, operations of the learning data collection apparatus 100 according to various embodiments of the present invention as described above will be described in detail with reference to the drawings.
도 13은 본 발명의 일 13 is one of the present invention 실시예에in the examples 따른 데이터 수집 방법을 설명하기 위한 to explain data collection methods according to 순서도이다is a flowchart . .
도 13을 참조하면, 본 발명의 일 실시예에 따른 학습 데이터 수집 장치(100)는 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보 중에서 하나 이상을 수신할 수 있다(S100).Referring to FIG. 13, the learning data collection apparatus 100 according to an embodiment of the present invention detects data and 3D point cloud data from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. , 2D image and distance information may be received (S100).
학습 데이터 수집 장치(100)는 수신된 감지 데이터로부터 객체를 식별하고, 식별된 객체와 차량(10) 사이의 거리에 대응하여, 차량(10)에 고정 설치되어 레이저 펄스를 방사할 라이다(30), 2D 이미지를 촬영할 카메라(40) 및 초음파를 발사할 초음파 센서(50) 중 하나 이상을 제어할 수 있다(S200).The learning data collection device 100 identifies an object from the received sensing data, and is fixedly installed in the vehicle 10 to emit laser pulses in response to the distance between the identified object and the vehicle 10 (30). ), at least one of the camera 40 to capture a 2D image and the ultrasonic sensor 50 to emit ultrasonic waves (S200).
학습 데이터 수집 장치(100)가 라이다(30), 카메라(40) 및 초음파 센서(50)를 제어하는 과정에 대한 구체적인 설명은 도 5 내지 도 7을 참조하여 설명한 바와 동일하므로 중복하여 기재하지 않는다.A detailed description of the process of controlling the lidar 30, the camera 40, and the ultrasonic sensor 50 by the learning data collection device 100 is the same as that described with reference to FIGS. 5 to 7, so it will not be described repeatedly. .
학습 데이터 수집 장치(100)는 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)로부터 수신된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 대상으로 후처리를 수행할 수 있다(S300).The learning data collection device 100 performs post-processing on detection data, 3D point cloud data, 2D image, and distance information received from the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. It can be performed (S300).
학습 데이터 수집 장치(100)가 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 대상으로 후처리하는 과정에 대한 구체적인 설명은 도 8 및 도 9를 참조하여 설명한 바와 동일하므로 중복하여 기재하지 않는다.A detailed description of the process of post-processing the sensing data, 3D point cloud data, 2D image, and distance information by the learning data collection device 100 is the same as that described with reference to FIGS. 8 and 9, so it will not be described repeatedly.
학습 데이터 수집 장치(100)는 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)의 설치 위치에 따른 오차를 보정할 수 있다(S400).The learning data collection device 100 may correct errors according to installation positions of the radar 20, lidar 30, camera 40, and ultrasonic sensor 50 (S400).
학습 데이터 수집 장치(100)가 레이더(20), 라이다(30), 카메라(40) 및 초음파 센서(50)의 설치 위치에 따라, 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보의 오차를 보정하는 과정에 대한 구체적인 설명은 도 10 내지 도 12를 참조하여 설명한 바와 동일하므로 중복하여 기재하지 않는다.The learning data collection device 100 detects errors in detection data, 3D point cloud data, 2D image, and distance information according to the installation positions of the radar 20, lidar 30, camera 40, and ultrasonic sensor 50. Since the detailed description of the correction process is the same as that described with reference to FIGS. 10 to 12, it will not be described repeatedly.
학습 데이터 수집 장치(100)는 보정이 완료된 감지 데이터, 3D 점군 데이터, 2D 이미지 및 거리 정보를 학습 데이터 생성 장치(200)에 전송할 수 있다(S500).The learning data collection device 100 may transmit the corrected sensing data, 3D point cloud data, 2D image, and distance information to the learning data generating device 200 (S500).
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다As described above, although preferred embodiments of the present invention have been disclosed in the present specification and drawings, it is in the technical field to which the present invention belongs that other modified examples based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein. It is self-evident to those skilled in the art. In addition, although specific terms have been used in the present specification and drawings, they are only used in a general sense to easily explain the technical content of the present invention and help understanding of the present invention, but are not intended to limit the scope of the present invention. Accordingly, the foregoing detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be selected by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (10)

  1. 자율주행에 사용될 수 있는 인공지능(Artificial Intelligence, AI)을 기계 학습(machine learning)시키기 위한 데이터를 수집하는 방법으로서, As a method of collecting data for machine learning of artificial intelligence (AI) that can be used for autonomous driving,
    학습 데이터 수집 장치가, 차량에 고정 설치된 레이더(radar)로부터 감지 데이터를 수신하는 단계;receiving, by a learning data collection device, sensing data from a radar fixed to a vehicle;
    상기 학습 데이터 수집 장치가, 상기 수신된 감지 데이터로부터 객체를 식별하는 단계; 및identifying, by the learning data collection device, an object from the received sensing data; and
    상기 학습 데이터 수집 장치가, 상기 차량과 상기 식별된 객체 사이의 거리에 대응하여, 상기 차량에 고정 설치되어 레이저 펄스를 방사할 라이다(lidar)를 제어하는 단계를 포함하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.Learning using laser preview, comprising controlling, by the learning data collection device, a lidar fixed to the vehicle to emit laser pulses, corresponding to the distance between the vehicle and the identified object. Data collection method.
  2. 제1 항에 있어서, According to claim 1,
    상기 감지 데이터는 상기 레이더에 의해 상기 차량의 주행 방향을 향하여 발사된 전자기파 신호를 반사시킨 점들(points)에 대한 정보이며,The detection data is information on points at which electromagnetic wave signals emitted by the radar toward the driving direction of the vehicle are reflected,
    상기 객체를 식별하는 단계는Identifying the object
    상기 감지 데이터에 포함된 점들 중에서 사전에 설정된 임계 범위 내에서 군집(crowd)을 형성하고 있는 점들을 추출하여 상기 객체를 식별하는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.A learning data collection method using laser preview, characterized in that for identifying the object by extracting points forming a crowd within a preset threshold range from points included in the sensing data.
  3. 제2 항에 있어서, 상기 라이다를 제어하는 단계는The method of claim 2, wherein controlling the lidar
    상기 차량과 상기 객체 사이의 거리가 사전에 설정된 라이다 인식 범위보다 먼 경우, 상기 라이다가 상기 레이저 펄스를 방사하지 않거나, 또는 사전에 설정된 세기로만 상기 레이저 펄스를 방사하도록 제어하는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.Characterized in that when the distance between the vehicle and the object is longer than the preset lidar recognition range, the lidar does not emit the laser pulse or controls to emit the laser pulse only with a preset intensity , Learning data collection method using laser preview.
  4. 제3 항에 있어서, 상기 라이다를 제어하는 단계는The method of claim 3, wherein controlling the lidar
    상기 차량과 상기 객체 사이의 거리가 상기 라이다 인식 범위 이내인 경우, 상기 객체로부터의 거리에 비례하여 상기 라이다의 레이저 펄스 방사 주기(period)를 길게 하거나 또는 짧게 제어하는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.When the distance between the vehicle and the object is within the lidar recognition range, the laser pulse emission period of the lidar is lengthened or shortened in proportion to the distance from the object. Learning data collection method using Preview.
  5. 제3 항에 있어서, 상기 라이다를 제어하는 단계는The method of claim 3, wherein controlling the lidar
    상기 량과 상기 객체 사이의 거리가 사전에 설정된 특정 가능 범위 이내인 경우, 상기 차량에 고정 설치된 복수 개의 카메라들이 2D 이미지를 촬영하도록 제어하되,Controlling a plurality of cameras fixedly installed in the vehicle to capture a 2D image when the distance between the amount and the object is within a predetermined specific possible range,
    상기 특정 가능 범위는 상기 라이다 인식 범위보다 좁은 범위에 해당되는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.Characterized in that the specific possible range corresponds to a narrower range than the lidar recognition range, learning data collection method using laser preview.
  6. 제5 항에 있어서, 상기 라이다를 제어하는 단계는The method of claim 5, wherein controlling the lidar
    상기 차량과 상기 객체 사이의 거리에 대응하여, 상기 복수 개의 카메라들이 촬영할 2D 이미지의 해상도(resolution)를 다르게 설정하는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.In response to the distance between the vehicle and the object, the method of collecting learning data using laser preview, characterized in that the resolution of the 2D image to be captured by the plurality of cameras is set differently.
  7. 제6 항에 있어서, 상기 라이다를 제어하는 단계는The method of claim 6, wherein controlling the lidar
    상기 감지 데이터에 포함된 객체의 시계열적 위치 변화를 기초로 상기 객체의 이동 경로를 추정하고, 상기 복수 개의 카메라들 중에서 상기 추정된 이동 경로에 대응하는 방향을 촬영하는 카메라의 촬영 주기를 다른 방향을 촬영하는 카메라보다 짧게 설정하는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.A movement path of the object is estimated based on a time-sequential position change of the object included in the sensing data, and a shooting period of a camera that photographs a direction corresponding to the estimated movement path among the plurality of cameras is set in a different direction. Learning data collection method using laser preview, characterized in that it is set shorter than the shooting camera.
  8. 제5 항에 있어서, 상기 라이다를 제어하는 단계는The method of claim 5, wherein controlling the lidar
    상기 차량과 상기 객체 사이의 거리가 사전에 설정된 접촉 가능 범위 이내인 경우, 상기 차량에 고정 설치된 복수 개의 초음파 센서들이 초음파를 발사하도록 제어하는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.When the distance between the vehicle and the object is within a preset contactable range, a plurality of ultrasonic sensors fixed to the vehicle are controlled to emit ultrasonic waves.
  9. 제2 항에 있어서, 상기 라이다를 제어하는 단계는The method of claim 2, wherein controlling the lidar
    상기 감지 데이터로부터 어떠한 객체도 식별되지 않은 경우, 상기 라이다가 상기 레이저 펄스를 방사하지 않도록 제어하는 것을 특징으로 하는, 레이저 프리뷰를 이용한 학습 데이터 수집 방법.Characterized in that, when no object is identified from the sensing data, the LIDAR is controlled not to emit the laser pulse, learning data collection method using laser preview.
  10. 메모리(memory);memory;
    송수신기(transceiver); 및transceiver; and
    상기 메모리에 상주된 명령어를 처리하는 프로세서(processor)를 포함하여 구성된 컴퓨팅 장치와 결합되어, In combination with a computing device configured to include a processor for processing instructions resident in the memory,
    상기 프로세서가, 차량에 고정 설치된 레이더(radar)로부터 감지 데이터를 상기 송수신기를 통해 수신하는 단계;receiving, by the processor, sensing data from a radar fixed to the vehicle through the transceiver;
    상기 프로세서가, 상기 수신된 감지 데이터로부터 객체의 식별하는 단계; 및identifying, by the processor, an object from the received sensing data; and
    상기 프로세서가, 상기 식별된 객체로부터의 거리에 대응하여, 상기 차량에 고정 설치되어 레이저 펄스를 방사할 라이다(lidar)를 제어하는 단계를 실행시키는, 기록매체에 기록된 컴퓨터 프로그램.A computer program recorded on a recording medium that causes the processor to execute a step of controlling a lidar that is fixedly installed in the vehicle and emits laser pulses in response to the distance from the identified object.
PCT/KR2022/007642 2021-07-08 2022-05-30 Training data collection method using laser preview, and computer program recorded on recording medium to execute same WO2023282466A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210089486A KR102310601B1 (en) 2021-07-08 2021-07-08 Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof
KR10-2021-0089486 2021-07-08

Publications (1)

Publication Number Publication Date
WO2023282466A1 true WO2023282466A1 (en) 2023-01-12

Family

ID=78150839

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/007642 WO2023282466A1 (en) 2021-07-08 2022-05-30 Training data collection method using laser preview, and computer program recorded on recording medium to execute same

Country Status (2)

Country Link
KR (1) KR102310601B1 (en)
WO (1) WO2023282466A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102310601B1 (en) * 2021-07-08 2021-10-13 주식회사 인피닉 Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170307735A1 (en) * 2016-04-22 2017-10-26 Mohsen Rohani Object detection using radar and machine learning
US20180307944A1 (en) * 2017-04-24 2018-10-25 Baidu Usa Llc Automatically collecting training data for object recognition with 3d lidar and localization
KR20190127624A (en) * 2019-10-31 2019-11-13 충북대학교 산학협력단 Apparatus and method for detecting object based on density using lidar sensor
KR102310601B1 (en) * 2021-07-08 2021-10-13 주식회사 인피닉 Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3430427B1 (en) * 2016-03-14 2021-07-21 IMRA Europe S.A.S. Processing method of a 3d point cloud
KR101964100B1 (en) * 2017-10-23 2019-04-01 국민대학교산학협력단 Object detection apparatus based on neural network learning and method of the same
KR101899549B1 (en) * 2017-12-27 2018-09-17 재단법인 경북아이티융합 산업기술원 Obstacle recognition apparatus of obstacle recognition using camara and lidar sensor and method thereof
KR102144707B1 (en) 2018-10-16 2020-08-14 주식회사 키센스 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor
US11852746B2 (en) * 2019-10-07 2023-12-26 Metawave Corporation Multi-sensor fusion platform for bootstrapping the training of a beam steering radar

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170307735A1 (en) * 2016-04-22 2017-10-26 Mohsen Rohani Object detection using radar and machine learning
US20180307944A1 (en) * 2017-04-24 2018-10-25 Baidu Usa Llc Automatically collecting training data for object recognition with 3d lidar and localization
KR20190127624A (en) * 2019-10-31 2019-11-13 충북대학교 산학협력단 Apparatus and method for detecting object based on density using lidar sensor
KR102310601B1 (en) * 2021-07-08 2021-10-13 주식회사 인피닉 Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DONG XU; WANG PENGLUO; ZHANG PENGYUE; LIU LANGECHUAN: "Probabilistic Oriented Object Detection in Automotive Radar", 2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), IEEE, 14 June 2020 (2020-06-14), pages 458 - 467, XP033798958, DOI: 10.1109/CVPRW50498.2020.00059 *
MEYER MICHAEL; KUSCHK GEORG: "Automotive Radar Dataset for Deep Learning Based 3D Object Detection", 2019 16TH EUROPEAN RADAR CONFERENCE (EURAD), EUMA, 2 October 2019 (2019-10-02), pages 129 - 132, XP033663874 *

Also Published As

Publication number Publication date
KR102310601B1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
EP3707674A1 (en) Method and apparatus for performing depth estimation of object
WO2023120831A1 (en) De-identification method and computer program recorded in recording medium for executing same
WO2015194867A1 (en) Device for recognizing position of mobile robot by using direct tracking, and method therefor
WO2016074169A1 (en) Target detecting method, detecting device, and robot
WO2015194866A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
WO2020091262A1 (en) Method for processing image by using artificial neural network, and electronic device supporting same
WO2015160207A1 (en) System and method for detecting region of interest
WO2023282466A1 (en) Training data collection method using laser preview, and computer program recorded on recording medium to execute same
WO2020032497A1 (en) Method and apparatus for incorporating noise pattern into image on which bokeh processing has been performed
EP3925206A1 (en) Electronic device, method, and computer-readable medium for providing bokeh effect in video
KR102310608B1 (en) Method for processing data of machine learning for automatic driving based on radar and lidar, and computer program recorded on record-medium for executing method therefor
WO2019143050A1 (en) Electronic device and method for controlling autofocus of camera
WO2022025441A1 (en) Omnidirectional image-capturing assembly and method executed by same
WO2020231156A1 (en) Electronic device and method for acquiring biometric information using light of display
EP3642673A1 (en) Electronic device for controlling focus of lens and method for controlling the same
WO2022265262A1 (en) Method for extracting data for artificial intelligence training based on big data, and computer program recorded on recording medium in order to execute same
WO2022035054A1 (en) Robot and method for controlling same
WO2020091347A1 (en) Three-dimensional depth measuring device and method
WO2020017814A1 (en) Abnormal entity detection system and method
WO2019160262A1 (en) Electronic device and method for processing image by electronic device
WO2023153812A1 (en) Electronic device for detecting object, and control method therefor
WO2023033333A1 (en) Electronic device comprising plurality of cameras and operating method therefor
WO2022260252A1 (en) Electronic device including camera module and operation method thereof
KR102310604B1 (en) Method for processing data collected by multiple sensors, and computer program recorded on record-medium for executing method therefor
WO2023054833A1 (en) Method for augmenting data for machine learning, and computer program recorded in recording medium for executing same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22837820

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22837820

Country of ref document: EP

Kind code of ref document: A1