KR102267040B1 - Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device - Google Patents
Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device Download PDFInfo
- Publication number
- KR102267040B1 KR102267040B1 KR1020170056538A KR20170056538A KR102267040B1 KR 102267040 B1 KR102267040 B1 KR 102267040B1 KR 1020170056538 A KR1020170056538 A KR 1020170056538A KR 20170056538 A KR20170056538 A KR 20170056538A KR 102267040 B1 KR102267040 B1 KR 102267040B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- frame
- mode
- complexity
- object recognition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/24—Coupling light guides
- G02B6/26—Optical coupling means
- G02B6/35—Optical coupling means having switching means
- G02B6/3502—Optical coupling means having switching means involving direct waveguide displacement, e.g. cantilever type waveguide displacement involving waveguide bending, or displacing an interposed waveguide between stationary waveguides
- G02B6/3506—Translating the waveguides along the beam path, e.g. by varying the distance between opposed waveguide ends, or by translation of the waveguide ends
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/24—Coupling light guides
- G02B6/36—Mechanical coupling means
- G02B6/3628—Mechanical coupling means for mounting fibres to supporting carriers
- G02B6/3648—Supporting carriers of a microbench type, i.e. with micromachined additional mechanical structures
- G02B6/3656—Supporting carriers of a microbench type, i.e. with micromachined additional mechanical structures the additional structures being micropositioning, with microactuating elements for fine adjustment, or restricting movement, into two dimensions, e.g. cantilevers, beams, tongues or bridges with associated MEMs
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/24—Coupling light guides
- G02B6/42—Coupling light guides with opto-electronic elements
- G02B6/4201—Packages, e.g. shape, construction, internal or external details
- G02B6/4256—Details of housings
- G02B6/4262—Details of housings characterised by the shape of the housing
- G02B6/4263—Details of housings characterised by the shape of the housing of the transisitor outline [TO] can type
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L25/00—Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
- H01L25/16—Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof the devices being of types provided for in two or more different main groups of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. forming hybrid circuits
- H01L25/167—Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof the devices being of types provided for in two or more different main groups of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. forming hybrid circuits comprising optoelectronic devices, e.g. LED, photodiodes
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Computer Hardware Design (AREA)
- Power Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법에 관한 것이다. 본 발명의 실시예에 따른 객체 인식 장치는 객체 프레임 정보 생성부, 프레임 분석부, 객체 우선순위 연산기, 프레임 복잡도 연산기, 및 모드 제어부를 포함한다. 객체 프레임 정보 생성부는 모드 제어 신호에 근거하여 객체 프레임 정보를 생성한다. 프레임 분석부는 객체 프레임 정보에 근거하여 객체 추적 정보를 생성한다. 객체 우선순위 연산기는 객체 추적 정보에 근거하여 우선순위 정보를 생성한다. 프레임 복잡도 연산기는 객체 추적 정보에 근거하여 프레임 복잡도를 산출한다. 모드 제어부는 우선순위 정보, 프레임 복잡도, 및 리소스 점유 상태에 근거하여 객체 인식 범위 및 객체 프레임 정보 생성부의 연산량을 조정하는 모드 제어 신호를 생성한다. 본 발명에 따르면, 과부하에 의한 자율 주행의 불안정성이 개선될 수 있다.The present invention relates to an object recognition apparatus, an autonomous driving system including the same, and an object recognition method using the object recognition apparatus. An object recognition apparatus according to an embodiment of the present invention includes an object frame information generator, a frame analyzer, an object priority calculator, a frame complexity calculator, and a mode controller. The object frame information generator generates object frame information based on the mode control signal. The frame analyzer generates object tracking information based on the object frame information. The object priority calculator generates priority information based on the object tracking information. The frame complexity calculator calculates the frame complexity based on the object tracking information. The mode control unit generates a mode control signal for adjusting the object recognition range and the amount of calculation of the object frame information generating unit based on priority information, frame complexity, and resource occupancy state. According to the present invention, instability of autonomous driving due to overload can be improved.
Description
본 발명은 객체 인식을 위한 신호 처리에 관한 것으로, 좀 더 상세하게는 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법에 관한 것이다.The present invention relates to signal processing for object recognition, and more particularly, to an object recognition apparatus, an autonomous driving system including the same, and an object recognition method using the object recognition apparatus.
차량을 이용하는 사용자의 편의성을 확보하기 위하여 다양한 전자 장치들이 차량에 구비되고 있다. 특히, 주변부의 객체들을 인지하고, 객체들과의 충돌을 방지하면서 목적지에 도달할 수 있는 자율 주행 기술이 대두되고 있다. 자율 주행의 안정성을 확보하기 위하여, 다른 차량 또는 보행자 등의 객체들을 정확하게 인지하는 것이 중요하다. 뿐만 아니라, 객체들과의 일정 간격을 유지하고, 최적화된 주행 경로를 선택하는 것이 요구된다. 최적화된 주행 경로를 선택하기 위하여 다양한 방식으로 인지된 객체 정보들이 처리된다.In order to secure the convenience of a user who uses the vehicle, various electronic devices are provided in the vehicle. In particular, autonomous driving technology capable of recognizing objects in the vicinity and preventing collisions with objects to reach a destination is emerging. In order to secure the stability of autonomous driving, it is important to accurately recognize objects such as other vehicles or pedestrians. In addition, it is required to maintain a certain distance from objects and to select an optimized driving route. Object information recognized in various ways is processed in order to select an optimized driving route.
자율 주행 중인 차량은 다양한 객체들을 접할 수 있다. 특히, 출퇴근 시간의 주행, 교차로의 주행, 또는 골목길의 주행 등은 객체들의 개수 또는 주행 경로의 복잡성에 근거하여 차량의 정교한 제어가 요구된다. 이와 같이 복잡한 주변 상황에서, 자율 주행 시스템은 과부하 상태에 직면할 수 있다.An autonomous vehicle may come into contact with various objects. In particular, driving during commuting time, driving at an intersection, or driving in an alleyway requires precise control of the vehicle based on the number of objects or the complexity of the driving route. In such a complex surrounding situation, the autonomous driving system may face an overload condition.
자율 주행 시스템은 과부하 상태에서 시스템 정지 또는 오류를 초래할 수 있다. 갑작스러운 시스템의 정지 또는 오류는 도로 정체를 야기할 수 있고, 나아가 교통 사고를 초래할 수 있다. 따라서, 복잡한 주변 상황에서 자율 주행 시스템의 안정성을 확보할 수 있는 방법론이 요구된다. 또한, 인지된 객체 정보들의 처리 속도를 개선하여 신속하게 주변 상황에 대응할 수 있는 자율 주행 시스템에 대한 요구가 제기되고 있다.Autonomous driving systems can cause system freezes or errors under overload conditions. Sudden system stops or errors can cause road congestion, which in turn can lead to traffic accidents. Therefore, a methodology capable of securing the stability of the autonomous driving system in complex surrounding situations is required. In addition, there is a demand for an autonomous driving system capable of quickly responding to surrounding situations by improving the processing speed of recognized object information.
본 발명은 과부하 상태에서 자율 주행의 불안정성을 개선할 수 있는 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법을 제공할 수 있다.The present invention may provide an object recognition apparatus capable of improving instability of autonomous driving in an overload state, an autonomous driving system including the same, and an object recognition method using the object recognition apparatus.
본 발명의 실시예에 따른 객체 인식 장치는 객체 프레임 정보 생성부, 프레임 분석부, 주행 경로 분석부, 객체 우선순위 연산기, 프레임 복잡도 연산기, 리소스 검출기, 연산 모드 지시자 연산기, 및 모드 제어부를 포함한다.An object recognition apparatus according to an embodiment of the present invention includes an object frame information generator, a frame analyzer, a driving path analyzer, an object priority calculator, a frame complexity calculator, a resource detector, an operation mode indicator operator, and a mode controller.
객체 프레임 정보 생성부는 모드 제어 신호에 근거하여 적어도 하나의 객체를 인식하여 객체 프레임 정보를 생성한다. 프레임 분석부는 객체 프레임 정보를 수신한다. 프레임 분석부는 다음 프레임에 대한 객체의 예상 위치 또는 예상 속도를 산출하여 객체 추적 정보를 생성한다. 주행 경로 분석부는 객체 추적 정보에 근거하여 다음 프레임에 대한 주행 경로 정보를 생성한다.The object frame information generating unit generates object frame information by recognizing at least one object based on the mode control signal. The frame analyzer receives object frame information. The frame analyzer generates object tracking information by calculating an expected position or an expected velocity of an object for the next frame. The driving path analyzer generates driving path information for the next frame based on the object tracking information.
객체 우선순위 연산기는 객체 추적 정보 및 주행 경로 정보에 근거하여 객체와 객체 인식 장치 사이의 충돌 가능성을 연산한다. 객체 우선순위 연산기는 충돌 가능성에 근거하여 객체에 대한 우선순위 정보를 생성한다.The object priority calculator calculates the possibility of collision between the object and the object recognition device based on the object tracking information and the driving route information. The object priority operator generates priority information about objects based on the possibility of collision.
프레임 복잡도 연산기는 객체 추적 정보에 근거하여 객체 복잡도를 산출한다. 프레임 복잡도 연산기는 주행 경로 정보에 근거하여 경로 복잡도를 산출한다. 프레임 복잡도 연산기는 객체 복잡도 및 경로 복잡도에 근거하여 프레임 복잡도를 산출한다. 프레임 복잡도 연산기는 객체의 개수 및 분포에 근거하여 프레임 복잡도를 산출한다.The frame complexity calculator calculates the object complexity based on the object tracking information. The frame complexity calculator calculates the path complexity based on the driving path information. The frame complexity calculator calculates the frame complexity based on the object complexity and the path complexity. The frame complexity calculator calculates the frame complexity based on the number and distribution of objects.
연산 모드 지시자 연산기는 프레임 복잡도 및 리소스 점유 상태에 근거하여 연산 모드 지시자를 생성한다. 연산 모드 지시자 연산기는 프레임 복잡도에 근거하여 연산 모드 지시자의 절대값을 결정하고, 리소스 점유 상태에 근거하여 연산 모드 지시자의 극성을 결정한다. The operation mode indicator operator generates an operation mode indicator based on frame complexity and resource occupancy state. The arithmetic mode indicator operator determines the absolute value of the arithmetic mode indicator based on frame complexity and determines the polarity of the arithmetic mode indicator based on the resource occupancy state.
모드 제어부는 우선순위 정보, 프레임 복잡도, 및 리소스 점유 상태에 근거하여 객체 인식 범위 및 객체 프레임 정보 생성부의 연산량을 조정하는 모드 제어 신호를 생성한다. 모드 제어부는 연산 모드 지시자에 근거하여 고연산 모드 제어 신호, 저연산 모드 제어 신호, 또는 스킵 모드 제어 신호를 객체 프레임 정보 생성부에 제공한다.The mode control unit generates a mode control signal for adjusting the object recognition range and the amount of calculation of the object frame information generating unit based on priority information, frame complexity, and resource occupancy state. The mode controller provides a high-computational mode control signal, a low-computational mode control signal, or a skip mode control signal to the object frame information generator based on the operation mode indicator.
본 발명의 실시예에 따른 자율 주행 시스템은 센서부, 객체 인식 장치, 차량 제어 장치, 프로세서, 및 메모리를 포함한다. 센서부는 주변부를 감지하여 센싱 정보를 생성한다. 객체 인식 장치는 객체 프레임 정보 생성부, 프레임 분석부, 주행 경로 분석부, 객체 우선순위 연산기, 프레임 복잡도 연산기, 리소스 검출기, 연산 모드 지시자 연산기, 및 모드 제어부를 포함할 수 있다. 객체 인식 장치는 프로세서 또는 메모리의 리소스 점유 상태, 및 프레임 복잡도에 근거하여 객체 인식 범위 및 객체 프레임 정보 생성부의 연산량을 조정한다. 차량 제어 장치는 주행 경로 정보에 근거하여 차량의 조향각 및 속도를 제어한다. An autonomous driving system according to an embodiment of the present invention includes a sensor unit, an object recognition device, a vehicle control device, a processor, and a memory. The sensor unit generates sensing information by sensing the periphery. The object recognition apparatus may include an object frame information generator, a frame analyzer, a driving path analyzer, an object priority calculator, a frame complexity calculator, a resource detector, an operation mode indicator operator, and a mode controller. The object recognition apparatus adjusts the object recognition range and the amount of computation of the object frame information generator based on the resource occupancy state of the processor or memory, and the frame complexity. The vehicle control device controls the steering angle and speed of the vehicle based on the driving path information.
본 발명의 실시예에 따른 객체 인식 방법은 객체 프레임 정보를 생성하는 단계, 객체 추적 정보를 생성하는 단계, 주행 경로 정보를 생성하는 단계, 우선순위 정보를 생성하는 단계, 프레임 복잡도를 산출하는 단계, 리소스 점유 상태를 검출하는 단계, 및 객체 프레임 정보의 연산을 제어하여 객체 인식 범위를 변경하는 단계를 포함한다.An object recognition method according to an embodiment of the present invention includes the steps of generating object frame information, generating object tracking information, generating driving route information, generating priority information, calculating frame complexity; detecting a resource occupancy state, and changing the object recognition range by controlling the operation of object frame information.
일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Full 상태인 경우, 이전 프레임에서 고연산 모드로 객체 프레임 정보가 생성된 객체 중 가장 후 순위의 우선순위 정보를 갖는 객체 프레임 정보가 저연산 모드로 생성된다. 또한, 상기 프레임 복잡도에 근거하여 상기 저연산 모드로 생성하는 객체 프레임 정보의 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is Full, the object frame information having the lowest priority among the objects for which the object frame information was created in the high operation mode in the previous frame is low. It is created in arithmetic mode. Also, the number of object frame information generated in the low-computation mode is adjusted based on the frame complexity.
일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Full 상태이고 이전 프레임에서 복수의 객체 추적 정보가 모두 저연산 모드로 생성된 경우, 가장 후 순위의 우선순위 정보를 갖는 객체 프레임 정보의 생성이 차단된다. 또한, 프레임 복잡도에 근거하여 객체 프레임 정보의 생성이 차단되는 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is Full and a plurality of object tracking information in the previous frame are all generated in the low-computational mode, the object frame information having the lowest priority information creation is blocked. In addition, the number of blocking object frame information generation is adjusted based on the frame complexity.
일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 스킵 모드로 객체 프레임 정보의 생성이 차단된 객체 중 가장 선 순위의 우선순위 정보를 갖는 객체 프레임 정보가 저연산 모드로 생성된다. 또한, 프레임 복잡도에 근거하여 저연산 모드로 생성하는 객체 프레임 정보의 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is the Not Full state, the object frame information having the highest priority information among the objects whose object frame information generation is blocked in the skip mode in the previous frame is created in low-computational mode. Also, the number of object frame information generated in the low-computational mode is adjusted based on the frame complexity.
일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 저연산 모드로 객체 프레임 정보가 생성된 객체 중 우선순위 정보를 갖는 객체 프레임 정보가 고연산 모드로 생성된다. 또한, 프레임 복잡도에 근거하여 고연산 모드로 생성하는 객체 프레임 정보의 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is in the Not Full state, the object frame information having priority information among the objects for which the object frame information was generated in the low computation mode in the previous frame is converted to the high computation mode is created In addition, the number of object frame information generated in the high computation mode is adjusted based on the frame complexity.
본 발명의 실시예에 따른 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법은 리소스 상태 및 주변부의 상태에 따라 적응적으로 신호 처리에 요구되는 연산을 조정하여 시스템의 정지 또는 오류를 방지할 수 있고, 신호 처리 속도를 개선할 수 있다.The object recognition apparatus, the autonomous driving system including the same, and the object recognition method using the object recognition apparatus according to an embodiment of the present invention adaptively adjust the operation required for signal processing according to the state of the resource and the state of the peripheral part of the system. Stops or errors can be prevented, and signal processing speed can be improved.
도 1은 본 발명의 실시예에 따른 객체 인식 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 객체 프레임 정보 생성부의 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 다른 자율 주행 시스템의 블록도이다.
도 5는 본 발명의 실시예에 따른 센서부의 블록도이다.
도 6 내지 도 8은 본 발명의 실시예에 따른 객체들의 우선순위 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 9 내지 도 12는 본 발명의 실시예에 따른 객체 인식 범위 및 연산 모드의 변화를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 객체 인식 방법의 순서도이다.
도 14는 본 발명의 실시예에 따른 객체 프레임 정보의 연산을 제어하는 방법의 순서도이다.1 is a block diagram of an object recognition apparatus according to an embodiment of the present invention.
2 is a block diagram of an object frame information generator according to an embodiment of the present invention.
3 and 4 are block diagrams of an autonomous driving system according to an embodiment of the present invention.
5 is a block diagram of a sensor unit according to an embodiment of the present invention.
6 to 8 are diagrams for explaining a process of generating priority information of objects according to an embodiment of the present invention.
9 to 12 are diagrams for explaining changes in the object recognition range and operation mode according to an embodiment of the present invention.
13 is a flowchart of an object recognition method according to an embodiment of the present invention.
14 is a flowchart of a method for controlling operation of object frame information according to an embodiment of the present invention.
아래에서는, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재된다.Hereinafter, embodiments of the present invention will be described clearly and in detail to the extent that those skilled in the art can easily practice the present invention.
도 1은 본 발명의 실시예에 따른 객체 인식 장치의 블록도이다. 도 1을 참조하면, 객체 인식 장치(100)는 객체 프레임 정보 생성부(110), 프레임 분석부(120), 주행 경로 분석부(130), 객체 우선순위 연산기(140), 프레임 복잡도 연산기(150), 리소스 검출기(160), 연산 모드 지시자 연산기(170), 및 모드 제어부(180)를 포함한다. 도 1의 객체 인식 장치(100)는 설명의 편의상 구성요소들을 기능별로 분류하였으나, 이에 제한되지 않고 하나의 칩 또는 집적 회로에 구성요소들이 구현될 수 있다.1 is a block diagram of an object recognition apparatus according to an embodiment of the present invention. Referring to FIG. 1 , the
객체 프레임 정보 생성부(110)는 후술될 센서부로부터 센싱 정보(Si)를 수신한다. 센싱 정보(Si)는 객체 프레임 정보 생성부(110)는 센싱 정보(Si)에 근거하여 주변부의 객체를 인식한다. 객체 프레임 정보 생성부(110)는 객체의 특징 벡터를 추출하여 객체의 종류, 형상, 거리, 또는 색상 등을 인식할 수 있다. 객체 프레임 정보 생성부(110)는 인식된 객체에 근거하여 객체 프레임 정보(Oi)를 생성한다.The object frame
객체 프레임 정보 생성부(110)는 머신 러닝 알고리즘을 이용하여 객체 프레임 정보(Oi)를 생성할 수 있다. 객체 프레임 정보 생성부(110)는 머신 러닝 알고리즘으로 학습된 파라미터를 이용하여 객체들의 특징 벡터를 추출할 수 있다. 예를 들어, 객체 프레임 정보 생성부(110)는 차량, 보행자, 가드 레일과 같은 객체들을 인식하도록 학습된 파라미터를 이용하여 특징 벡터를 추출할 수 있다. 또한, 객체 프레임 정보 생성부(110)는 빗물과 같은 객체들을 인식하지 않도록 학습된 파라미터를 이용할 수 있다.The object
객체 프레임 정보(Oi)는 객체의 특징과 연관된 다양한 정보를 포함할 수 있다. 예를 들어, 객체 프레임 정보(Oi)는 객체 ID 정보, 객체 종류 정보, 객체 위치 정보, 객체 크기 정보, 또는 객체 색상 정보 중 적어도 하나를 포함할 수 있다. 객체 프레임 정보 생성부(110)는 프레임 단위로 객체 프레임 정보(Oi)를 생성한다. 객체 프레임 정보 생성부(110)는 객체의 이동 또는 사용자 차량의 이동에 따라, 이전 프레임에 대한 객체 프레임 정보와 다른 객체 프레임 정보(Oi)를 생성한다.The object frame information Oi may include various types of information related to characteristics of an object. For example, the object frame information Oi may include at least one of object ID information, object type information, object location information, object size information, and object color information. The object frame
프레임 분석부(120)는 객체 프레임 정보(Oi)를 수신한다. 프레임 분석부(120)는 객체 프레임 정보(Oi)에 근거하여 객체 추적 정보(Ti)를 생성한다. 프레임 분석부(120)는 다음 프레임에 대한 객체의 위치를 예측하여 객체 추적 정보(Ti)를 생성한다. 예를 들어, 프레임 분석부(120)는 현재 프레임에 대한 객체 프레임 정보(Oi)를 수신하고, 이전 프레임에 대한 객체 추적 정보(Ti)와 객체 프레임 정보(Oi)를 비교 및 분석할 수 있다. The
프레임 분석부(120)는 이전 프레임에 대한 객체 추적 정보(Ti)와 객체 프레임 정보(Oi)의 차이에 근거하여 객체의 예상 위치 또는 예상 속도를 예측할 수 있다. 프레임 분석부(120)는 객체의 예상 위치 또는 예상 속도에 근거하여 객체 추적 정보(Ti)를 생성할 수 있다. 또는, 프레임 분석부(120)는 이전 프레임에 대한 객체 프레임 정보(Oi)와 현재 프레임에 대한 객체 프레임 정보(Oi)를 이용하여 객체 추적 정보(Ti)를 생성할 수 있다. 프레임 분석부(120)는 프레임 단위로 객체 추적 정보(Ti)를 생성한다.The
객체 추적 정보(Ti)는 객체의 특징과 연관된 다양한 정보를 포함할 수 있다. 예를 들어, 객체 추적 정보(Ti)는 객체 ID 정보, 객체 종류 정보, 객체 위치 정보, 객체 속도 정보, 객체 생성 정보, 객체 소멸 정보, 객체 크기 정보, 또는 객체 색상 정보 중 적어도 하나를 포함할 수 있다. 객체 위치 정보는 다음 프레임에 대한 객체의 예상 위치 정보일 수 있다. 객체 속도 정보는 다음 프레임에 대한 객체의 예상 속도 정보일 수 있다. 객체 생성 정보는 새로운 객체가 인지되는 경우 제공될 수 있다. 또는, 객체 생성 정보는 후술될 스킵 모드에서 저연산 모드로 변경될 경우, 객체를 추적 대상에 포함하기 위하여 제공될 수 있다. 객체 소멸 정보는 인지되었던 객체가 더 이상 인지되지 않는 경우 제공될 수 있다. 또는, 객체 소멸 정보는 후술될 스킵 모드에 의하여 객체가 추적 대상에서 제외되는 경우 제공될 수 있다.The object tracking information Ti may include various types of information related to characteristics of an object. For example, the object tracking information Ti may include at least one of object ID information, object type information, object location information, object speed information, object creation information, object destruction information, object size information, or object color information. have. The object location information may be estimated location information of an object for a next frame. The object speed information may be information on the expected speed of the object for the next frame. The object creation information may be provided when a new object is recognized. Alternatively, when the object creation information is changed from a skip mode to a low-computation mode to be described later, the object creation information may be provided to include the object in the tracking target. Object destruction information may be provided when the recognized object is no longer recognized. Alternatively, object destruction information may be provided when an object is excluded from tracking by a skip mode, which will be described later.
주행 경로 분석부(130)는 객체 추적 정보(Ti)를 수신한다. 주행 경로 분석부(130)는 객체 추적 정보(Ti)에 근거하여 주행 경로 정보(Di)를 생성한다. 주행 경로 분석부(130)는 다음 프레임에 대한 차량의 주행 경로를 판단하여 주행 경로 정보(Di)를 생성한다. 주행 경로 분석부(130)는 최적화된 주행 경로를 결정하기 위하여 외부의 메모리 또는 스토리지로부터 주행 맵 정보 및 목적지 정보를 수신할 수 있다. 주행 경로 분석부(130)는 주행 맵 정보 및 목적지 정보에 근거하여 목적지까지의 최적화 경로를 판단할 수 있다. The driving
주행 경로 분석부(130)는 주행 경로 정보(Di)를 후술될 차량 제어 장치에 제공한다. 차량 제어 장치는 주행 경로 정보(Di)를 수신하여 다음 프레임에 이동할 주행 경로를 인식할 수 있다. 차량 제어 장치는 주행 경로 정보(Di)에 근거하여 차량을 제어한다. 주행 경로 분석부(130)는 프레임 단위로 주행 경로 정보(Di)를 생성한다.The driving
객체 우선순위 연산기(140)는 프레임 분석부(120)로부터 객체 추적 정보(Ti)를 수신한다. 객체 우선순위 연산기(140)는 주행 경로 분석부(130)로부터 주행 경로 정보(Di)를 수신한다. 객체 우선순위 연산기(140)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 우선순위 정보(Pri)를 생성한다. 복수의 객체가 인지되는 경우, 우선순위는 자율 주행시 우선적으로 고려될 필요성 또는 중요도에 근거한다.The
우선순위 정보(Pri)는 객체 ID 정보, 객체 위치 정보, 및 객체 우선순위 정보를 포함할 수 있다. 예를 들어, 객체 우선순위 정보는 인지된 객체들 중 차량의 주행에 영향을 미칠 가능성에 대한 순위와 연관된 정보일 수 있다. 우선순위 정보(Pri)는 차량과 객체 사이의 충돌 가능성에 근거하여 생성될 수 있다. 즉, 차량과의 충돌 가능성이 높은 객체는 선순위에 해당하는 우선순위 정보(Pri)를 가질 수 있다.The priority information Pri may include object ID information, object location information, and object priority information. For example, the object priority information may be information related to a priority of a possibility of affecting the driving of a vehicle among recognized objects. The priority information Pri may be generated based on the possibility of collision between the vehicle and the object. That is, the object having a high probability of collision with the vehicle may have priority information Pri corresponding to the priority.
객체 우선순위 연산기(140)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)를 이용하여 객체들과 차량 사이의 충돌 가능성을 연산할 수 있다. 객체 우선순위 연산기(140)는 객체 추적 정보(Ti)를 이용하여 객체들의 위치, 속도, 및 이동 방향을 검출할 수 있다. 객체 우선순위 연산기(140)는 주행 경로 정보(Di)를 이용하여 차량의 위치, 속도, 및 이동 방향을 검출할 수 있다. 객체 우선순위 연산기(140)는 검출된 정보들을 이용하여 객체들과 차량 사이의 거리 차이, 속도 차이, 및 주행 방향 차이를 검출할 수 있다. 객체 우선순위 연산기(140)는 연산된 객체들과 차량 사이의 관계에 근거하여 객체들 각각에 대한 충돌 가능성을 연산한다. 객체 우선순위 연산기(140)는 충돌 가능성이 높은 객체 ID에 선순위의 우선순위를 부여한다.The
프레임 복잡도 연산기(150)는 프레임 분석부(120)로부터 객체 추적 정보(Ti)를 수신한다. 프레임 복잡도 연산기(150)는 주행 경로 분석부(130)로부터 주행 경로 정보(Di)를 수신한다. 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 프레임 복잡도를 산출한다. 프레임 복잡도 연산기(150)는 산출된 프레임 복잡도에 근거하여 프레임 복잡도 정보(FCi)를 생성한다. 프레임 복잡도 연산기(150)는 주행 경로를 프레임 복잡도에 반영하기 위하여 외부의 메모리 또는 스토리지로부터 주행 맵 정보를 수신할 수 있다.The
프레임 복잡도는 객체 복잡도와 경로 복잡도로 구분될 수 있다. 객체 복잡도는 객체의 개수와 객체들의 분포에 근거하여 산출될 수 있다. 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti)에 근거하여 객체의 개수와 객체들의 분포를 산출할 수 있다. 예를 들어, 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti)에 포함된 객체 ID 정보들의 개수에 근거하여 객체의 개수를 산출할 수 있다. 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti)에 포함된 객체 위치 정보들을 추출하여 객체들의 분포에 따른 분산을 계산할 수 있다. 객체의 개수가 증가할수록 객체 복잡도는 증가하고, 객체들의 분포에 따른 분산이 증가할수록 객체 복잡도는 감소한다. 프레임 복잡도 연산기(150)는 객체의 개수를 분산으로 나눈 후 가중치 계수를 곱셈 연산하여 객체 복잡도를 산출할 수 있다.Frame complexity can be divided into object complexity and path complexity. The object complexity may be calculated based on the number of objects and the distribution of objects. The
경로 복잡도는 주행 경로의 상태에 근거하여 산출될 수 있다. 프레임 복잡도 연산기(150)는 주행 경로 정보(Di) 또는 주행 맵 정보에 근거하여 경로 복잡도를 산출할 수 있다. 예를 들어, 프레임 복잡도 연산기(150)는 주행 경로 정보(Di) 또는 주행 맵 정보로부터 주행 경로의 차선의 개수, 객체 분포에 따른 분산, 교차로의 개수, 및 교통 신호의 개수 등을 산출할 수 있다. 프레임 복잡도 연산기(150)는 차선의 개수, 객체 분포에 따른 분산, 교차로의 개수, 및 교통 신호의 개수 각각에 대한 가중치 계수를 곱셈 연산할 수 있다. 프레임 복잡도 연산기(150)는 가중치가 반영된 차선의 개수, 객체 분포에 따른 분산, 교차로의 개수, 및 교통 신호의 개수를 합산하여 경로 복잡도를 산출할 수 있다. 프레임 복잡도는 객체 복잡도 및 경로 복잡도의 합으로 산출될 수 있다.The path complexity may be calculated based on the state of the driving path. The
리소스 검출기(160)는 리소스 점유 상태를 검출한다. 리소스 점유 상태는 후술될 프로세서 또는 메모리의 점유 상태에 대응된다. 리소스 검출기(160)는 프로세서 또는 메모리의 점유율을 감지한다. 리소스 검출기(160)는 프로세서 또는 메모리의 점유율에 근거하여 리소스 정보(Resi)를 생성한다. The
객체 인식 장치(100)는 프로세서의 제어에 따라 객체 프레임 정보(Oi), 객체 추적 정보(Ti), 주행 경로 정보(Di), 우선순위 정보(Pri), 및 프레임 복잡도 정보(FCi)를 생성할 수 있다. 객체 인식 장치(100)는 객체 프레임 정보(Oi), 객체 추적 정보(Ti), 주행 경로 정보(Di), 우선순위 정보(Pri), 및 프레임 복잡도 정보(FCi)를 메모리에 저장할 수 있다. 객체들이 인지되는 개수가 많을수록, 프로세서의 연산량이 증가하고, 프로세서의 과부하가 예상된다. 객체들이 인지되는 개수가 많을수록, 메모리에 저장되는 데이터량이 증가하고, 메모리의 과부하가 예상된다. 즉, 객체들이 인지되는 개수가 많을수록, 프로세서 또는 메모리의 점유율이 증가한다.The
연산 모드 지시자 연산기(170)는 프레임 복잡도 연산기(150)로부터 프레임 복잡도 정보(FCi)를 수신한다. 연산 모드 지시자 연산기(170)는 리소스 검출기(160)로부터 리소스 정보(Resi)를 수신한다. 연산 모드 지시자 연산기(170)는 프레임 복잡도 정보(FCi) 및 리소스 정보(Resi)에 근거하여 연산 모드 지시자(Ki)를 생성한다. 연산 모드 지시자(Ki)는 프레임 복잡도 및 리소스 점유 상태에 근거하여 생성된다.The operation
연산 모드 지시자(Ki)는 프레임 복잡도의 증가, 감소, 또는 유지여부에 의하여 결정될 수 있다. 연산 모드 지시자(Ki)는 리소스 점유 상태가 Full 상태인지 Full 상태가 아닌지에 의하여 결정될 수 있다. 예를 들어, 연산 모드 지시자(Ki)는 표 1과 같이, 프레임 복잡도 및 리소스 점유 상태에 근거하여 결정될 수 있다.The operation mode indicator Ki may be determined by whether the frame complexity is increased, decreased, or maintained. The operation mode indicator Ki may be determined depending on whether the resource occupancy state is a full state or not a full state. For example, as shown in Table 1, the operation mode indicator Ki may be determined based on frame complexity and resource occupancy state.
표 1을 참조하면, 연산 모드 지시자 연산기(170)는 리소스 점유 상태에 근거하여 연산 모드 지시자(Ki)의 극성을 결정할 수 있다. 연산 모드 지시자 연산기(170)는 프레임 복잡도에 근거하여 연산 모드 지시자(Ki)의 절대값을 결정할 수 있다. 표 1의 연산 모드 지시자(Ki) 생성은 4개의 지시자로 구분되는 것으로 설명하였으나, 이에 제한되지 않는다. 예를 들어, 프레임 복잡도 또는 리소스 점유 상태의 구분 기준을 달리하여, 연산 모드 지시자(Ki)는 4개보다 많거나 4개 보다 적은 개수로 구분될 수 있다.Referring to Table 1, the operation
프레임 복잡도가 이전 프레임보다 증가하고, 리소스 점유 상태가 Full 상태인 경우, 연산 모드 지시자(Ki)는 -2를 나타낸다. 프레임 복잡도가 이전 프레임보다 감소하거나 동일하고, 리소스 점유 상태가 Full 상태인 경우, 연산 모드 지시자(Ki)는 -1을 나타낸다. 프레임 복잡도가 이전 프레임보다 증가하고, 리소스 점유 상태가 Not Full 상태인 경우, 연산 모드 지시자(Ki)는 1을 나타낸다. 프레임 복잡도가 이전 프레임보다 감소하거나 동일하고, 리소스 점유 상태가 Not Full 상태인 경우, 연산 모드 지시자(Ki)는 2를 나타낸다. 즉, 연산 모드 지시자 연산기(170)는 리소스 점유 상태에 여유가 있고, 프레임 복잡도가 낮을수록, 높은 값을 갖는 연산 모드 지시자(Ki)를 생성할 수 있다.When the frame complexity increases from the previous frame and the resource occupancy state is the Full state, the operation mode indicator Ki indicates -2. When the frame complexity is reduced or the same as that of the previous frame and the resource occupancy state is the Full state, the operation mode indicator Ki indicates -1. When the frame complexity increases from the previous frame and the resource occupancy state is the Not Full state, the operation mode indicator Ki indicates 1. When the frame complexity is reduced or the same as that of the previous frame and the resource occupancy state is the Not Full state, the operation mode indicator Ki indicates 2. That is, the arithmetic
모드 제어부(180)는 연산 모드 지시자 연산기(170)로부터 연산 모드 지시자(Ki)를 수신한다. 모드 제어부(180)는 객체 우선순위 연산기(140)로부터 우선순위 정보(Pri)를 수신한다. 모드 제어부(180)는 연산 모드 지시자(Ki) 및 우선순위 정보(Pri)에 근거하여 모드 제어 신호(Mi)를 생성한다. 모드 제어부(180)는 우선순위 정보(Pri)에 근거하여 객체들의 연산 처리의 변환 순위를 결정할 수 있다. 모드 제어부(180)는 연산 모드 지시자(Ki)에 근거하여 객체들의 연산 처리에 대한 변환 여부를 결정할 수 있다.The
모드 제어부(180)는 고연산 모드 제어 신호, 저연산 모드 제어 신호, 및 스킵 모드 제어 신호 중 적어도 하나를 모드 제어 신호(Mi)로 선택할 수 있다. 고연산 모드 제어 신호는 객체 인식 장치(100)가 고연산 모드로 동작하도록 제어한다. 저연산 모드 제어 신호는 객체 인식 장치(100)가 저연산 모드로 동작하도록 제어한다. 스킵 모드 제어 신호는 객체 인식 장치(100)가 스킵 모드로 동작하도록 제어한다. 고연산 모드에서 객체 인식 장치(100)는 객체 프레임 정보(Oi) 또는 객체 추적 정보(Ti)를 생성할 때, 정확성을 확보하기 위하여 연산량을 높게 설정한다. 저연산 모드에서 객체 인식 장치(100)는 객체 프레임 정보(Oi) 또는 객체 추적 정보(Ti)를 생성할 때, 프로세서 또는 메모리의 과부하를 방지하기 위하여 연산량을 고연산 모드보다 낮게 설정한다. 스킵 모드에서 객체 인식 장치(100)는 객체 프레임 정보(Oi) 또는 객체 추적 정보(Ti)의 생성을 차단한다.The
모드 제어부(180)는 객체 단위로 고연산 모드 제어 신호, 저연산 모드 제어 신호, 또는 스킵 모드 제어 신호를 생성할 수 있다. 모드 제어부(180)는 고연산 모드에 의하여 연산되는 객체들의 영역, 저연산 모드에 의하여 연산되는 객체들의 영역, 및 스킵 모드에 의하여 연산이 제한되는 객체들의 영역을 결정할 수 있다. 모드 제어 신호(Mi)는 연산 모드 정보 및 영역 정보를 포함할 수 있다. 연산 모드 정보는 객체 인식 장치(100)의 동작 모드를 결정하는 정보일 수 있다. 영역 정보는 고연산 모드, 저연산 모드, 또는 스킵 모드로 동작하는 객체 인식 범위에 대한 정보일 수 있다. 객체 인식 장치(100)는 영역 정보에 근거하여 해당 영역에 속하는 객체들의 동작 모드를 결정할 수 있다.The
모드 제어부(180)는 모드 제어 신호(Mi)를 객체 프레임 정보 생성부(110)에 제공한다. 객체 프레임 정보 생성부(110)는 모드 제어 신호(Mi)에 근거하여 객체 인식을 위한 연산량을 결정한다. 객체 프레임 정보 생성부(110)는 모드 제어 신호(Mi)에 따라, 객체 인식을 위한 연산량을 증가시킬지, 감소시킬지, 또는 연산을 하지 않을지 결정한다. 모드 제어부(180)는 모드 제어 신호(Mi)를 프레임 분석부(120)에 제공한다. 프레임 분석부(120)는 모드 제어 신호(Mi) 중 스킵 모드 제어 신호에 대응하여 추적 대상에서 제외될 객체를 결정할 수 잇다. 프레임 분석부(120)는 스킵 모드에 대응하는 객체에 대한 연산을 하지 않는다. 따라서, 다음 프레임에 대한 객체 추적 정보(Ti)를 생성하기 위한 연산량 및 연산 시간을 줄일 수 있다.The
모드 제어부(180)는 표 1의 기준에 따른 연산 모드 지시자(Ki)를 수신할 수 있다. 연산 모드 지시자(Ki)가 음수인 경우, 이전 프레임에서 고연산 모드로 연산한 객체들 중 가장 후 순위의 우선순위 정보(Pri)를 갖는 객체를 저연산 모드로 연산한다. 연산 모드 지시자(Ki)가 음수인 경우, 이전 프레임에서 저연산 모드로 연산한 객체들 중 가장 후 순위의 우선순위 정보(Pri)를 갖는 객체를 연산하지 않는다. 연산 모드 지시자(Ki)가 -2인 경우, 고연산 모드에서 저연산 모드로 변환하거나 저연산 모드에서 스킵 모드로 변환하는 객체들의 개수가 2개로 설정될 수 있다. 연산 모드 지시자(Ki)가 -1인 경우, 고연산 모드에서 저연산 모드로 변환하거나 저연산 모드에서 스킵 모드로 변환하는 객체들의 개수가 1개로 설정될 수 있다.The
연산 모드 지시자(Ki)가 양수인 경우, 이전 프레임에서 스킵 모드로 동작하여 연산하지 않은 객체들 중 가장 선 순위의 우선순위 정보(Pri)를 갖는 객체를 저연산 모드로 연산한다. 연산 모드 지시자(Ki)가 양수인 경우, 이전 프레임에서 저연산 모드로 연산한 객체들 중 가장 선 순위의 우선순위 정보(Pri)를 갖는 객체를 고연산 모드로 연산한다. 연산 모드 지시자(Ki)가 2인 경우 스킵 모드에서 저연산 모드로 변환하거나 저연산 모드에서 고연산 모드로 변환하는 객체들의 개수가 2개로 설정될 수 있다. 연산 모드 지시자(Ki)가 1인 경우 스킵 모드에서 저연산 모드로 변환하거나 저연산 모드에서 고연산 모드로 변환하는 객체들의 개수가 1개로 설정될 수 있다.When the operation mode indicator Ki is a positive number, the object having the highest priority information Pri among objects that have not operated in the skip mode in the previous frame and have not been calculated is calculated in the low operation mode. When the operation mode indicator Ki is a positive number, the object having the highest priority information Pri among the objects calculated in the low operation mode in the previous frame is calculated in the high operation mode. When the operation mode indicator Ki is 2, the number of objects converted from the skip mode to the low operation mode or from the low operation mode to the high operation mode may be set to two. When the operation mode indicator Ki is 1, the number of objects converted from the skip mode to the low operation mode or from the low operation mode to the high operation mode may be set to one.
객체 인식 장치(100)는 프레임 복잡도 및 리소스 점유 상태에 근거하여 적응적으로 연산량을 조정할 수 있다. 객체 인식 장치(100)는 리소스 점유 상태가 Full 상태인 경우, 연산량을 점차적으로 감소시키고, 후순위의 객체들을 인식하지 않을 수 있다. 따라서, 객체 인식 장치(100)는 자율 주행 시스템의 과부하에 따른 처리속도 저하 또는 오류를 개선할 수 있다. 객체 인식 장치(100)는 프레임 복잡도가 복잡한 경우, 연산량의 증가 정도를 낮추거나, 연산량의 감소 정도를 높일 수 있다. 따라서, 객체 인식 장치(100)는 복잡한 주변부 상황에서, 연산 처리에 따른 과부하를 방지할 수 있다.The
도 2는 본 발명의 실시예에 따른 객체 프레임 정보 생성부의 블록도이다. 객체 프레임 정보 생성부(110)는 도 1의 객체 프레임 정보 생성부(110)에 대응된다. 도 2를 참조하면, 객체 프레임 정보 생성부(110)는 객체 연산 제어기(111) 및 객체 연산기(112)를 포함한다. 객체 연산기(112)는 복수의 멀티플렉서들(MUX), 제1 내지 제n 특징 추출 고연산기들(H1~Hn), 제1 내지 제n 특징 추출 저연산기들(L1~Ln), 및 완전 접속망(Fully Connected Network) 연산기(FCN)를 포함한다.2 is a block diagram of an object frame information generator according to an embodiment of the present invention. The object frame
객체 연산 제어기(111)는 도 1의 모드 제어부(180)로부터 모드 제어 신호(Mi)를 수신한다. 객체 연산 제어기(111)는 모드 제어 신호(Mi)에 근거하여 복수의 객체 연산기 제어 신호(C0~Cn+1)를 생성한다. 객체 연산 제어기(111)는 복수의 객체 연산기 제어 신호(C0~Cn+1)를 이용하여 객체 연산기(112)를 제어한다. 복수의 객체 연산기 제어 신호(C0~Cn+1)는 모드 제어 신호(Mi)의 종류에 따라 다른 값을 가질 수 있다. 즉, 고연산 모드 제어 신호에 의한 복수의 객체 연산기 제어 신호(C0~Cn+1), 저연산 모드 제어 신호에 의한 복수의 객체 연산기 제어 신호(C0~Cn+1), 및 스킵 모드 제어 신호에 의한 복수의 객체 연산기 제어 신호(C0~Cn+1)는 서로 다른 값을 가질 수 있다.The
객체 연산기(112)는 복수의 객체 연산기 제어 신호(C0~Cn+1)를 수신한다. 객체 연산기(111)는 센싱 정보(Si)를 수신한다. 복수의 객체 연산기 제어 신호(C0~Cn+1)는 복수의 멀티플렉서(MUX1~MUXn+1)에 인가된다. 복수의 멀티플렉서(MUX1~MUXn+1)는 복수의 객체 연산기 제어 신호(C0~Cn+1)에 근거하여 입력되는 정보의 출력 경로를 결정한다. 객체 연산기(112)는 객체에 대한 다양한 특징을 추출하기 위하여 다층 구조로 배치된 복수의 멀티플렉서(MUX1~MUXn+1), 제1 내지 제n 특징 추출 고연산기들(H1~Hn), 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)을 포함한다.The
제0 멀티플렉서(MUX0)는 제0 객체 연산기 제어 신호(C0)에 근거하여 센싱 정보(Si)의 전달 경로를 결정한다. 제0 객체 연산기 제어 신호(C0)가 고연산 모드 제어 신호에 근거하여 생성된 경우, 제0 멀티 플렉서(MUX0)는 센싱 정보(Si)를 제1 특징 추출 고연산기(H1)로 출력한다. 제0 객체 연산기 제어 신호(C0)가 저연산 모드 제어 신호에 근거하여 생성된 경우, 제0 멀티 플렉서(MUX0)는 센싱 정보(Si)를 제1 특징 추출 저연산기(L1)로 출력한다. 제1 내지 제n-1 멀티 플렉서들(MUX1~MUXn-1)은 제1 내지 제n-1 객체 연산기 제어 신호들(C1~Cn-1)에 근거하여 입력 정보를 제2 내지 제n 특징 추출 고연산기(H2~Hn) 또는 제2 내지 제n 특징 추출 저연산기(L2~Ln)로 출력한다.The zeroth multiplexer MUX0 determines a transmission path of the sensing information Si based on the zeroth object operator control signal C0. When the zeroth object operator control signal C0 is generated based on the high computation mode control signal, the zeroth multiplexer MUX0 outputs the sensing information Si to the first feature extraction high operator H1. When the zeroth object operator control signal C0 is generated based on the low operation mode control signal, the zeroth multiplexer MUX0 outputs the sensing information Si to the first feature extraction low operator L1. The first to n-1 th multiplexers MUX1 to MUXn-1 convert input information based on the first to n-1 th object operator control signals C1 to Cn-1 to the second to nth features It outputs to the extraction high operator (H2 to Hn) or the second to nth feature extraction low operator (L2 to Ln).
제1 내지 제n 특징 추출 고연산기들(H1~Hn) 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)은 감지된 센싱 정보(Si)에서 특정한 특징을 추출하기 위한 연산기이다. 특정한 특징은 객체의 크기, 색상, 종류, 또는 위치를 포함할 수 있다. 예를 들어, 제1 내지 제n 특징 추출 고연산기들(H1~Hn) 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)은 입력된 정보를 컨벌루션(convolution) 연산 및 서브샘플링(Sub-sampling)을 수행할 수 있다. 객체 연산기(112)의 컨벌루션 연산 및 서브샘플링은 특징이 추출되는 영역을 한정하는 컨벌루션 신경망(Convolution Neural Networks) 방식에 대응될 수 있다. 정보들이 제1 내지 제n 특징 추출 고연산기들(H1~Hn) 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)을 통과하면서, 특징이 추출되는 영역은 점점 줄어들고, 특징에 대응되는 정보만 추출될 수 있다. The first to nth feature extraction high operators H1 to Hn and the first to nth feature extraction low operators L1 to Ln are operators for extracting a specific feature from the sensed sensing information Si. Specific characteristics may include the size, color, type, or location of the object. For example, the first to nth feature extraction high operators (H1 to Hn) and the first to nth feature extraction low operators (L1 to Ln) perform a convolution operation and subsampling (Sub) on the input information. -sampling) can be performed. The convolution operation and subsampling of the
제1 내지 제n 특징 추출 고연산기들(H1~Hn)은 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 비하여 많은 연산량을 갖는다. 다만, 제1 내지 제n 특징 추출 고연산기들(H1~Hn)은 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 비하여 정확하게 특징을 추출하고, 객체를 인식할 수 있다. 고연산 모드에서 객체 프레임 정보 생성부(110)는 객체 인식의 정확성을 확보하기 위하여 제1 내지 제n 특징 추출 고연산기들(H1~Hn)을 이용할 수 있다. 저연산 모드에서 객체 프레임 정보 생성부(110)는 자율 주행 시스템의 과부하로 인한 오류 또는 처리 시간 지연을 방지하기 위하여 제1 내지 제n 특징 추출 저연산기들(L1~Ln)을 이용할 수 있다.The first to nth feature extraction high operators H1 to Hn have a greater amount of computation than the first to nth feature extraction low operators L1 to Ln. However, the first to nth feature extraction high operators H1 to Hn can more accurately extract features and recognize objects compared to the first to nth low feature extraction operators L1 to Ln. In the high computation mode, the object frame
완전 접속망 연산기(FCN)는 수많은 경로에 의하여 처리된 정보들을 수신한다. 완전 접속망 연산기(FCN)는 복수의 영역들로 분류된 정보들을 매핑한다. 완전 접속망 연산기(FCN)는 복수의 영역들로 분류된 정보들을 수집하여 객체 프레임 정보(Oi)를 생성한다. 완전 접속망 연산기(FCN)는 일차원 행렬인 객체 프레임 정보(Oi)를 생성할 수 있다. 객체 연산기(112)는 상술한 CNN 방식에 의한 딥 러닝 기술 이외에도 다양한 방식을 이용하여 객체를 인식할 수 있다. 예를 들어, 객체 연산기(112)는 haar-like 특징 벡터 또는 HoG(Histogram of Gradients) 특징 벡터를 이용하여 객체를 인식할 수 있다. 또는, 객체 연산기(112)는 Adaboost, SVM과 같은 분류기를 이용하여 객체를 인식할 수 있다.A full access network operator (FCN) receives information processed by a number of paths. A full access network calculator (FCN) maps information classified into a plurality of areas. A full access network operator (FCN) generates object frame information Oi by collecting information classified into a plurality of areas. A full access network operator (FCN) may generate object frame information Oi that is a one-dimensional matrix. The
도 3은 자율 주행 시스템의 블록도이다. 도 3을 참조하면, 자율 주행 시스템(200)은 센서부(210), 객체 인식 장치(220), 차량 제어 장치(230), 프로세서(240), 메모리(250), 스토리지(260), 디스플레이(270), 및 버스(BUS, 280)를 포함한다. 자율 주행 시스템(200)은 이외에도 자율 주행의 목적을 달성하기 위한 다양한 구성 요소들을 더 포함할 수 있다. 예를 들어, 자율 주행 시스템(200)은 목적지까지의 경로 정보 등을 수신하기 위한 내비게이션(navigation) 장치, 외부의 전자 장치와의 통신을 위한 통신 모듈 장치, 또는 사용자가 차량 주행에 관여하기 위한 사용자 인터페이스 등을 더 포함할 수 있다.3 is a block diagram of an autonomous driving system. Referring to FIG. 3 , the
센서부(210)는 주변부로부터 신호를 수신한다. 센서부(210)는 주위의 사물들로부터 제공되는 신호를 감지할 수 있다. 또는, 센서부(210)는 주위의 사물들에 신호를 제공하고, 사물들로부터 반사된 신호를 감지할 수 있다. 센서부(210)는 모든 방향의 객체들을 감지하기 위하여 복수의 감지 센서들을 포함할 수 있다. 예를 들어, 자율 주행 시스템(200)이 차량에 구비되는 경우, 센서부(210)는 차량의 전방, 후방, 및 측방에 구비될 수 있다. 센서부(210)는 객체들을 정확하게 감지하기 위하여 다양한 종류의 감지 센서들을 포함할 수 있다.The
객체 인식 장치(220)는 도 1의 객체 인식 장치(100)일 수 있다. 객체 인식 장치(220)는 센서부(210)가 감지한 신호에 근거하여 주위의 객체들을 인식한다. 객체들은 차량, 보행자, 동물, 가드 레일, 장애물 등을 포함할 수 있다. 객체 인식 장치(220)는 객체들의 특징을 추출하고 분류한다. 예를 들어, 객체 인식 장치(220)는 주변부의 영상 정보를 수신하고, 영상 정보를 분석하여 객체들의 특징 벡터를 추출할 수 있다. 객체 인식 장치(220)는 특징 벡터에 근거하여 배경과 객체를 구분할 수 있다. 객체 인식 장치(220)는 프레임 단위로 객체들을 인식할 수 있다. 따라서, 객체 인식 장치(220)는 객체의 정적인 위치뿐만 아니라, 객체의 동적인 움직임을 인식할 수 있다.The
차량 제어 장치(230)는 차량의 속도 및 조향각을 제어한다. 이외에도, 차량 제어 장치(230)는 전조등과 같은 차량에 구비되는 다양한 장치들을 제어할 수 있다. 차량 제어 장치(230)는 객체 인식 장치(220)로부터 인식한 객체들에 의존하여 차량을 제어한다. 즉, 자율 주행 시스템(200)을 구비한 차량은 다른 객체와의 충돌을 방지하고 최적화된 주행 경로를 제공하기 위하여 주위의 객체들의 존재, 위치, 이동을 감지한다. 차량 제어 장치(230)는 객체 인식 장치(120)에서 인식한 객체 정보들에 기초하여 차량의 움직임을 제어한다.The
프로세서(240)는 자율 주행 시스템(200)의 중앙 제어 장치의 기능을 수행할 수 있다. 프로세서(240)는 자율 주행 시스템(200)을 구현하기 위하여 요구되는 제어 동작 및 연산 동작을 수행할 수 있다. 예를 들어, 객체 인식 장치(220)는 프로세서(240)의 제어에 따라 센서부(210)로부터 신호를 수신하고, 객체들을 인식할 수 있다. 차량 제어 장치(230)는 프로세서(240)의 제어에 따라 객체 인식 장치(220)로부터 객체들에 대한 정보를 수신하고, 차량의 움직임을 제어할 수 있다. 프로세서(240)는 메모리(250)의 연산 공간을 활용하여 동작할 수 있다. 프로세서(240)는 스토리지(260)에서 운영체제를 구동하기 위한 파일들 및 어플리케이션의 실행 파일들을 읽을 수 있다. 프로세서(240)는 운영 체제 및 다양한 어플리케이션들을 실행할 수 있다.The
메모리(250)는 프로세서(240)에 의하여 처리되거나 처리될 예정인 데이터 및 프로세스 코드들을 저장할 수 있다. 예를 들어, 메모리(250)는 센서부(210)에서 감지한 정보들, 객체 인식 장치(220)에서 객체를 인식하기 위한 정보들, 객체 인식 장치(220)에서 인식된 객체에 대한 정보들을 저장할 수 있다. 메모리(250)는 자율 주행 시스템(200)의 주기억 장치로 이용될 수 있다. 메모리(250)는 DRAM (Dynamic RAM), SRAM (Static RAM), PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.The
스토리지(260)는 운영 체제 또는 어플리케이션들에 의해 장기적인 저장을 목적으로 생성되는 데이터, 운영 체제를 구동하기 위한 파일, 또는 어플리케이션들의 실행 파일 등을 저장할 수 있다. 예를 들어, 스토리지(260)는 센서부(210), 객체 인식 장치(220), 및 차량 제어 장치(230)의 실행을 위한 파일들을 저장할 수 있다. 스토리지(260)는 자율 주행 시스템(200)의 보조 기억 장치로 이용될 수 있다. 스토리지(260)는 플래시 메모리, PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.The
디스플레이(270)는 센서부(210), 객체 인식 장치(220), 또는 차량 제어 장치(230)에 의하여 생성된 데이터를 수신하여 표시할 수 있다. 디스플레이(270)는 메모리(250) 또는 스토리지(260)에 저장된 데이터를 수신하여 표시할 수 있다. 디스플레이(270)는 LCD (Liquid Crystal Display), OLED (Organic Light Emitting Diode), AMOLED (Active Matrix OLED), 플렉서블 디스플레이, 전자잉크 등을 포함할 수 있다.The
버스(280)는 자율 주행 시스템(200)의 구성 요소들 사이에서 통신 경로를 제공할 수 있다. 센서부(210), 객체 인식 장치(220), 차량 제어 장치(230), 프로세서(240), 메모리(250), 스토리지(260), 및 디스플레이(270)는 버스(280)를 통해 서로 데이터를 교환할 수 있다. 버스(280)는 자율 주행 시스템(200)에서 이용되는 다양한 유형의 통신 포맷을 지원하도록 구성될 수 있다.The
도 4는 자율 주행 시스템의 블록도이다. 도 4를 참조하면, 자율 주행 시스템(300)은 센서부(310), 객체 인식 장치(320), 및 차량 제어 장치(330)를 포함한다. 도 4의 자율 주행 시스템(300)은 각 구성요소들 사이의 정보 송수신 관계를 구체적으로 설명하기 위한 블록도로 이해될 것이다.4 is a block diagram of an autonomous driving system. Referring to FIG. 4 , the
센서부(310)는 주변부를 감지하여 센싱 정보(Si)를 생성한다. 센서부(310)는 주변부를 감지하여 생성된 아날로그 신호를 디지털 신호인 센싱 정보(Si)로 변환할 수 있다. 센서부(310)는 아날로그 신호를 디지털 신호로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 센서부(310)는 프레임 단위로 주변부를 감지하여 프레임 단위의 센싱 정보(Si)를 생성할 수 있다.The
객체 인식 장치(320)는 도 1의 객체 인식 장치(100)일 수 있다. 객체 인식 장치(320)는 센서부(310)로부터 센싱 정보(Si)를 수신한다. 객체 인식 장치(320)는 센싱 정보(Si)를 분석하여 객체들을 인식한다. 객체 인식 장치(320)는 프레임 단위로 센싱 정보(Si)를 수신한다. 따라서, 객체 인식 장치(320)는 시간의 흐름에 따른 객체의 움직임 또는 변화를 인식할 수 있다. 객체 인식 장치(320)는 센서부(310)의 주변부의 감지 범위에 근거하여 인식 가능한 객체들의 개수를 프레임 단위로 결정할 수 있다. 예를 들어, 객체 인식 장치(320)는 특정 반경의 범위에 존재하는 객체들을 인지할 수 있다. The
객체 인식 장치(320)는 인지할 객체들을 프레임 단위로 추가하거나 삭제할 수 있다. 또는 객체 인식 장치(320)는 객체들을 인지하기 위한 연산량을 조정할 수 있다. 예를 들어, 객체 인식 장치(320)는 이전 프레임에서 인지된 객체의 위치 또는 속도에 근거하여 자율 주행의 안정성에 영향을 미칠 가능성이 낮은 객체를 인지하지 않거나, 연산량을 낮출 수 있다. 객체 인식 장치(320)는 이전 프레임에서 인지되지 않은 새로운 객체를 인지할 수 있다. 새로운 객체가 자율 주행의 안정성에 영향을 미칠 가능성이 있는 경우, 객체 인식 장치(320)는 새로운 객체를 인지하거나, 기존의 객체를 인식하기 위한 연산량을 높일 수 있다. 객체들의 추가, 삭제 또는 연산량 변경의 기준은 객체의 우선순위, 프레임 복잡도, 및 리소스 점유 상태에 근거하여 설정될 수 있다.The
객체 인식 장치(320)는 인지된 객체들에 근거하여 주행 경로 정보(Di)를 생성한다. 주행 경로 정보(Di)는 다음 프레임에 대한 차량의 주행 경로에 대한 정보를 포함한다. 객체 인식 장치(320)는 객체들의 위치 및 속도에 근거하여 주행 경로 정보(Di)를 생성할 수 있다. 객체 인식 장치(320)는 도 3의 메모리(250) 또는 스토리지(260)에 저장된 목적지 정보 또는 맵 정보를 추가적으로 수신할 수 있다. 객체 인식 장치(320)는 센싱 정보(Si)에 근거하여 객체들과 차량 사이의 관계를 분석하고, 목적지 정보 또는 맵 정보에 근거하여 최적화된 경로를 분석한 후, 주행 경로 정보(Di)를 생성할 수 있다.The
차량 제어 장치(330)는 객체 인식 장치(320)로부터 주행 경로 정보(Di)를 수신한다. 다만, 이에 제한되지 않고, 차량 제어 장치(330)는 객체 인식 장치(320)로부터 객체들에 대한 정보를 수신하고, 주행 경로 정보(Di)를 직접 생성할 수 있다. 이 경우, 차량 제어 장치(330)는 도 3의 메모리(250) 또는 스토리지(260)로부터 목적지 정보 또는 맵 정보를 수신할 수 있다. The
차량 제어 장치(330)는 주행 경로 정보(Di)에 근거하여 차량 제어 신호를 생성한다. 차량 제어 신호는 차량이 주행 경로로 이동하기 위한 조향각 또는 속도를 제어하기 위한 신호일 수 있다. 차량 제어 장치(330)는 차량 제어 신호를 차량의 주행을 위한 차량 구동 장치에 제공한다. 차량 구동 장치는 차량 제어 신호에 근거하여 사용자의 관여 없이 차량을 주행 경로로 이동시킨다. 차량 구동 장치는 차량의 이동 속도 및 조향각을 결정하기 위한 장치를 포함할 수 있다.The
도 5는 도 4의 센서부의 블록도이다. 도 5을 참조하면, 센서부(310)는 카메라 센서(311), 레이다 센서(312), 및 라이다 센서(313)를 포함한다. 도 3의 센서부(310)는 복수의 신호를 감지하기 위한 일 실시예로 이해될 것이다. 센서부(310)는 주변부를 감지하기 위한 다양한 센서들을 더 포함할 수 있다. 예를 들어, 센서부(310)는 소리를 감지하는 마이크로폰을 더 포함할 수 있다.FIG. 5 is a block diagram of the sensor unit of FIG. 4 . Referring to FIG. 5 , the
카메라 센서(311)는 주변부의 영상을 감지한다. 카메라 센서(311)는 감지된 영상에 근거하여 영상 프레임 정보(Ci)를 생성한다. 카메라 센서(311)는 감지된 아날로그 신호를 디지털 신호인 영상 프레임 정보(Ci)로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 카메라 센서(311)는 복수의 카메라를 포함할 수 있다. 복수의 카메라는 차량의 전방, 측방, 및 후방에 배치될 수 있다. 복수의 카메라는 서로 다른 방향의 영상을 촬영할 수 있다. 즉, 카메라 센서(311)는 자율 주행 시스템(300)의 안정성을 확보하기 위하여 주변부 전체의 영상을 감지하기 위한 복수의 카메라를 구비할 수 있다.The
레이다(Radar) 센서(312)는 주변부에 전자파를 방사하고, 반사된 전자파를 감지한다. 레이다 센서(312)는 마이크로파를 방사할 수 있다. 레이다 센서(312)는 반사된 마이크로파에 근거하여 레이다 프레임 정보(Ri)를 생성한다. 레이다 센서(312)는 감지된 아날로그 신호를 디지털 신호인 레이다 프레임 정보(Ri)로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 레이다 센서(312)는 반사된 전자파의 시간에 근거하여 객체의 거리 및 방향을 측정할 수 있다. 레이다 센서(312)는 주변부의 전 방향에 전자파를 방사하여 감지 범위 내의 모든 방향에 존재하는 객체를 감지할 수 있다.The
라이다(Lidar) 센서(313)는 주변부에 전자파를 방사하고, 반사된 전자파를 감지한다. 라이다 센서(313)는 마이크로파보다 짧은 파장을 갖는 레이저를 방사할 수 있다. 라이다 센서(313)는 반사된 레이저에 근거하여 라이다 프레임 정보(Li)를 생성한다. 라이다 센서(313)는 감지된 아날로그 신호를 디지털 신호인 라이다 프레임 정보(Li)로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 라이다 센서(313)는 반사된 전자파의 시간에 근거하여 객체의 거리 및 방향을 측정할 수 있다. 라이다 센서(313)는 레이다 센서(312)에 비하여 짧은 파장의 전자파를 이용하므로, 거리 측정의 정밀도, 분해능, 및 신호 대 잡음 비 등을 개선할 수 있다. 다만, 라이다 센서(313)는 레이다 센서(312)에 비하여 작은 감지 범위를 갖는다.The
영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)는 객체 인식 장치(320)에 제공된다. 센서부(310)는 프레임 단위로 영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)를 생성한다. 객체 인식 장치(320)는 영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)에 근거하여 프레임 단위로 객체를 인식한다. 프레임 단위의 객체 인식을 위하여, 센서부(310)는 영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)의 동기화를 위한 센서 동기화부를 더 포함할 수 있다.The image frame information Ci, the radar frame information Ri, and the lidar frame information Li are provided to the
센서부(310)는 주변부의 객체 인식의 정확성, 안정성, 신뢰성을 확보하기 위하여 다양한 종류의 센서들을 포함할 수 있다. 예를 들어, 카메라 센서(311)에 의한 영상 프레임 정보(Ci)를 이용하여 객체의 형상 및 종류 등이 인식될 수 있다. 레이다 센서(312) 및 라이다 센서(313)를 이용하여 객체의 위치 및 속도가 정교하고 다각적으로 인식될 수 있다.The
도 6 내지 도 8은 본 발명의 실시예에 따른 객체들의 우선순위 정보를 생성하는 과정을 설명하기 위한 도면이다. 도 6 및 도 7은 3차선 도로를 주행하는 차량들을 도시한 평면도이다. 도 8은 3차선 도로 및 교차로를 주행하는 차량들을 도시한 평면도이다. 도 5 내지 도 7을 참조하면, 본 발명의 객체 인식 장치(100, 220, 320) 또는 자율 주행 시스템(200, 300)이 탑재된 사용자의 차량은 V0으로 정의된다. 도 6 및 도 7에서 차량(V0)은 제1 내지 제5 객체들(V1~V5)을 인지한다. 도 8에서 차량(V0)은 제1 내지 제6 객체들(V1~V6)을 인지한다. 6 to 8 are diagrams for explaining a process of generating priority information of objects according to an embodiment of the present invention. 6 and 7 are plan views illustrating vehicles traveling on a three-lane road. 8 is a plan view illustrating vehicles traveling on a three-lane road and an intersection. 5 to 7 , a vehicle of a user in which the
도 6 내지 도 8에 제1 내지 제6 객체들(V1~V6)에 대한 우선순위 정보(Pri)가 표시된다. 도 6 및 도 7은 제1 내지 제5 우선순위 정보(Pr1~Pr5)가 표시되고, 도 8은 제1 내지 제6 우선순위 정보(Pr1~Pr6)가 표시된다. 제1 우선순위 정보(Pr1)는 가장 선 순위 정보로 이해될 것이고, 제5 우선순위 정보(Pr5) 또는 제6 우선순위 정보(Pr6)로 진행할수록 후 순위 정보로 이해될 것이다. 도 6 내지 도 8에서의 화살표는 차량 또는 객체들 각각의 이동 속도 및 방향을 나타내는 것으로 이해될 것이다. 이러한 우선순위 정보는 도 1의 객체 우선순위 연산기(140)에서 생성될 수 있다.Priority information Pri for the first to sixth objects V1 to V6 is displayed in FIGS. 6 to 8 . 6 and 7 display first to fifth priority information Pr1 to Pr5, and FIG. 8 displays first to sixth priority information Pr1 to Pr6. The first priority information Pr1 will be understood as the highest priority information, and as the fifth priority information Pr5 or the sixth priority information Pr6 progresses, it will be understood as the lowest priority information. It will be understood that the arrows in FIGS. 6 to 8 indicate the moving speed and direction of each of the vehicles or objects. Such priority information may be generated by the
도 6을 참조하면, 차량(V0)의 전방에 제1 내지 제5 객체들(V1~V5)이 이동한다. 제1 객체(V1) 및 제4 객체(V4)는 차량(V0)과 동일 차선에서 주행하고 있다. 제3 객체(V3)는 차량(V0)의 왼쪽 차선에서 주행하고 있다. 제2 객체(V2) 및 제5 객체(V5)는 오른쪽 차선에서 주행하고 있다. 제1 객체(V1)는 제1 우선순위 정보(Pr1)에 대응한다. 제2 객체(V2)는 제2 우선순위 정보(Pr2)에 대응한다. 제3 객체(V3)는 제3 우선순위 정보(Pr3)에 대응한다. 제4 객체(V4)는 제4 우선순위 정보(Pr4)에 대응한다. 제5 객체(V5)는 제5 우선순위 정보(Pr5)에 대응한다.Referring to FIG. 6 , the first to fifth objects V1 to V5 move in front of the vehicle V0. The first object V1 and the fourth object V4 are traveling in the same lane as the vehicle V0. The third object V3 is driving in the left lane of the vehicle V0. The second object V2 and the fifth object V5 are driving in the right lane. The first object V1 corresponds to the first priority information Pr1. The second object V2 corresponds to the second priority information Pr2. The third object V3 corresponds to the third priority information Pr3. The fourth object V4 corresponds to the fourth priority information Pr4. The fifth object V5 corresponds to the fifth priority information Pr5.
제1 객체(V1)는 제1 내지 제5 객체들(V1~V5) 중 차량(V0)과 가장 가까운 거리를 갖는다. 따라서, 제1 객체(V1)는 차량(V0)과 가장 높은 충돌 가능성을 갖고, 제1 우선순위 정보(Pr1)가 제1 객체(V1)에 부여된다. 제2 객체(V2) 및 제3 객체(V3)는 제1 객체(V1) 다음으로 가장 가까운 거리를 갖는다. 다만, 제3 객체(V3)는 제2 객체(V2)보다 높은 이동 속도를 갖는다. 즉, 다음 프레임에서 제3 객체(V3)는 제2 객체(V2)보다 차량(V0)으로부터 멀리 떨어지게 된다. 그 결과, 제2 객체(V2)와 차량(V0)의 충돌 가능성은 제3 객체(V3)와 차량(V0)의 충돌 가능성보다 높다. 따라서, 제2 객체(V2)에 제2 우선순위 정보(Pr2)가 부여되고, 제3 객체(V3)에 제3 우선순위 정보(Pr3)가 부여된다. 충돌 가능성의 관점에서, 제4 객체(V4)에 제4 우선순위 정보(Pr4)가 부여되고, 제5 객체(V5)에 제5 우선순위 정보(Pr5)가 부여된다.The first object V1 has the closest distance to the vehicle V0 among the first to fifth objects V1 to V5 . Accordingly, the first object V1 has the highest probability of collision with the vehicle V0 , and the first priority information Pr1 is assigned to the first object V1 . The second object V2 and the third object V3 have the closest distance after the first object V1. However, the third object V3 has a higher moving speed than the second object V2 . That is, in the next frame, the third object V3 is farther away from the vehicle V0 than the second object V2. As a result, the collision probability between the second object V2 and the vehicle V0 is higher than the collision probability between the third object V3 and the vehicle V0. Accordingly, the second priority information Pr2 is provided to the second object V2, and the third priority information Pr3 is provided to the third object V3. In view of the possibility of collision, the fourth priority information Pr4 is given to the fourth object V4 , and the fifth priority information Pr5 is given to the fifth object V5 .
도 7을 참조하면, 차량(V0)은 가운데 차선에서 왼쪽 차선으로 진입하고 있다. 왼쪽 차선으로의 진입은 도 1의 주행 경로 분석부(130)에 의하여 생성된 주행 경로 정보(Di)에 근거하여 차량 제어 장치(230, 330)가 차량(V0)을 제어한 결과일 수 있다. 차량(V0)의 주행 경로 변경에 따라, 제1 내지 제5 객체(V1~V5)의 충돌 가능성은 변화한다. 차량(V0)은 제3 객체(V3)가 주행하는 차선으로 이동하므로, 제3 객체(V3)은 차량(V0)과 가장 높은 충돌 가능성을 갖는다. 따라서, 제3 객체(V3)에 제1 우선순위 정보(Pr1)가 부여된다. 그 다음 높은 충돌 가능성을 갖는 제1 객체(V1)에 제2 우선순위 정보(Pr2)가 부여된다. 순차적으로, 제2 객체(V2)에 제3 우선순위 정보(Pr3)가 부여되고, 제4 객체(V4)에 제4 우선순위 정보(Pr4)가 부여되고, 제5 객체(V5)에 제5 우선순위 정보(Pr5)가 부여된다.Referring to FIG. 7 , the vehicle V0 is entering the left lane from the center lane. The entry into the left lane may be a result of controlling the vehicle V0 by the
도 8을 참조하면, 차량(V0)은 가운데 차선에서 오른쪽 차선으로 진입하고 있다. 오른쪽 차선으로의 진입은 도 1의 주행 경로 분석부(130)에 의하여 생성된 주행 경로 정보(Di)에 근거하여 차량 제어 장치(230, 330)가 차량(V0)를 제어한 결과일 수 있다. 차량(V0)은 제2 객체(V2)가 주행하는 차선으로 이동하므로, 제2 객체(V2)는 차량(V0)과 가장 높은 충돌 가능성을 갖는다. 따라서, 제2 객체(V2)에 제1 우선순위 정보(Pr1)가 부여된다. 그 다음 높은 충돌 가능성을 갖는 제1 객체(V1)에 제2 우선순위 정보(Pr2)가 부여된다.Referring to FIG. 8 , the vehicle V0 is entering the right lane from the center lane. The entry into the right lane may be a result of controlling the vehicle V0 by the
도 8의 도로는 교차로를 포함한다. 교차로는 오른쪽 차선과 연결된다. 제6 객체(V6)는 교차로를 주행하고 오른쪽 차선에 진입한다. 차량(V0)은 객체 인식 범위 내에 새로 진입한 제6 객체(V6)를 인식한다. 센서부(110, 210)는 제6 객체(V6)를 감지하고, 객체 인식 장치(120, 220)는 제6 객체(V6)를 고려하여 객체 프레임 정보(Oi) 및 객체 추적 정보(Ti)를 생성한다. 제6 객체(V6)과 차량(V0)은 동일한 차선에서의 주행이 예상된다. 제6 객체(V6)는 제1 객체(V1) 및 제2 객체(V2) 다음으로 차량(V0)과 높은 충돌 가능성을 가질 수 있다. 따라서, 제6 객체(V6)는 제3 우선순위 정보(Pr3)가 부여된다. 그 외에, 객체와 차량(V0) 사이의 거리 차이 및 속도 차이에 근거하여 제3 내지 제5 객체(V3~V5)에 우선순위 정보가 부여될 수 있다.The road in FIG. 8 includes an intersection. The intersection connects with the right lane. The sixth object V6 drives through the intersection and enters the right lane. The vehicle V0 recognizes the sixth object V6 newly entered within the object recognition range. The
도 9 내지 도 12는 본 발명의 실시예에 따른 객체 인식 범위 및 연산 모드의 변화를 설명하기 위한 도면이다. 도 9 내지 도 12의 객체들의 위치 및 차량(V0)의 이동은 도 7과 동일하다. 즉, 제1 내지 제5 객체들(V1~V5)에 도 7과 동일한 우선순위 정보가 부여된다. 제3 객체(V3)에 가장 선 순위의 우선순위 정보인 제1 우선순위 정보(Pr1)가 부여된다. 제5 객체(V5)에 가장 후 순위의 우선순위 정보인 제5 우선순위 정보(Pr5)가 부여된다. 제1 내지 제5 우선순위 정보들(Pr1~Pr5)은 도 4의 객체 우선순위 연산기(224)에서 생성될 수 있다.9 to 12 are diagrams for explaining changes in the object recognition range and operation mode according to an embodiment of the present invention. The positions of the objects of FIGS. 9 to 12 and the movement of the vehicle V0 are the same as those of FIG. That is, the same priority information as in FIG. 7 is given to the first to fifth objects V1 to V5. First priority information Pr1, which is the highest priority priority information, is given to the third object V3. The fifth object V5 is given fifth priority information Pr5, which is the lowest priority priority information. The first to fifth priority information Pr1 to Pr5 may be generated by the object priority operator 224 of FIG. 4 .
도 9 내지 도 12를 참조하면, 객체 인식 범위는 제1 영역(AR1), 제2 영역(AR2), 및 제3 영역(AR3)으로 구분된다. 제1 영역(AR1)은 고연산 모드로 동작하는 객체 인식 범위로 정의된다. 제2 영역(AR2)은 저연산 모드로 동작하는 객체 인식 범위로 정의된다. 제3 영역(AR3)은 스킵 모드로 동작하는 객체 인식 범위로 정의된다. 설명의 편의상, 제1 영역(AR1)에 속하는 객체들은 실선으로 표시된다. 제2 영역(AR2)에 속하는 객체들은 점선으로 표시된다. 제3 영역(AR3)은 빗금으로 표시된다. 9 to 12 , the object recognition range is divided into a first area AR1 , a second area AR2 , and a third area AR3 . The first area AR1 is defined as an object recognition range operating in a high computation mode. The second area AR2 is defined as an object recognition range operating in a low-computational mode. The third area AR3 is defined as an object recognition range operating in a skip mode. For convenience of description, objects belonging to the first area AR1 are indicated by solid lines. Objects belonging to the second area AR2 are indicated by dotted lines. The third area AR3 is indicated by hatching.
객체 인식 범위는 제1 영역(AR1), 제2 영역(AR2), 또는 제3 영역(AR3)이 혼재되어 제공될 수 있다. 제1 영역(AR1)에 대응되는 정보들은 도 2의 제1 내지 제n 특징 추출 고연산기들(H1~Hn)에 의하여 처리될 수 있다. 제2 영역(AR2)에 대응되는 정보들은 도 2의 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 의하여 처리될 수 있다. 제3 영역(AR3)에 대응되는 정보들은 제1 내지 제n 특징 추출 고연산기들(H1~Hn) 또는 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 의한 연산 처리 없이 통과될 수 있다. The object recognition range may be provided in a mixture of the first area AR1 , the second area AR2 , or the third area AR3 . Information corresponding to the first region AR1 may be processed by the first to nth feature extraction high operators H1 to Hn of FIG. 2 . Information corresponding to the second region AR2 may be processed by the first to nth feature extraction low operators L1 to Ln of FIG. 2 . Information corresponding to the third region AR3 may be passed without arithmetic processing by the first to nth feature extraction high operators H1 to Hn or the first to nth feature extraction low operators L1 to Ln. have.
도 9 내지 도 12에서, 객체 인식 범위의 변경은 표 1의 기준에 따른 연산 모드 지시자(Ki)에 근거한다. 연산 모드 지시자(Ki)는 도 1의 연산 모드 지시자 연산기(170)에서 생성될 수 있다. 도 9 내지 도 12의 객체 인식 범위는 도 1의 모드 제어부(180)의 제어에 따라 조정되는 객체 프레임 정보 생성부(110)의 연산량에 의존한다. 즉, 차량(V0)은 동일한 객체 인식 범위에 속하는 객체들을 동일한 연산 모드에 따라 인식한다.9 to 12 , the change of the object recognition range is based on the operation mode indicator Ki according to the criteria of Table 1. The operation mode indicator Ki may be generated by the operation
도 9를 참조하면, 제1 내지 제4 객체들(V1~V4)은 제1 영역(AR1)에 속하고, 제5 객체(V5)는 제2 영역(AR2)에 속한다. 예를 들어, 이전 프레임에서 제1 내지 제5 객체들(V1~V5)은 모두 고연산 모드로 인식될 수 있다. 이 경우, 이전 프레임에서 제1 내지 제5 객체들(V1~V5)은 모두 제1 영역(AR1)에 속한다. 도 9는 연산 모드 지시자(Ki)가 -1인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 감소하거나, 유지될 수 있다.Referring to FIG. 9 , the first to fourth objects V1 to V4 belong to the first area AR1 , and the fifth object V5 belongs to the second area AR2 . For example, all of the first to fifth objects V1 to V5 in the previous frame may be recognized as the high computation mode. In this case, all of the first to fifth objects V1 to V5 in the previous frame belong to the first area AR1. 9 may be a case in which the operation mode indicator Ki is -1. That is, the resource occupancy state is Full, and frame complexity can be reduced or maintained compared to the previous frame.
객체 인식 장치(100, 220, 320)는 이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체 중 가장 후 순위의 우선순위 정보를 갖는 객체에 대하여 저연산 모드로 연산한다. 가장 후 순위의 우선순위 정보가 부여된 객체는 제5 우선순위 정보(Pr5)가 부여된 제5 객체(V5)이다. 제5 객체(V5)는 인식된 다른 객체들보다 작은 충돌 가능성을 갖는다. 모드 제어부(228)는 제5 객체(V5)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 저연산 모드로 객체를 인식하는 제2 영역(AR2)을 생성한다.The
도 10을 참조하면, 제1 내지 제3 객체들(V1~V3)은 제1 영역(AR1)에 속하고, 제4 및 제5 객체들(V4~V5)은 제2 영역(AR2)에 속한다. 제1 내지 제3 객체들(V1~V3)은 제4 및 제5 객체들(V4~V5)에 비하여 높은 연산량에 의하여 인식된다. 이전 프레임이 도 9에 대응되는 경우, 도 10은 연산 모드 지시자(Ki)가 -1인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 감소하거나, 유지될 수 있다. Referring to FIG. 10 , first to third objects V1 to V3 belong to a first area AR1 , and fourth and fifth objects V4 to V5 belong to a second area AR2 . . The first to third objects V1 to V3 are recognized by a higher computational amount than the fourth and fifth objects V4 to V5. When the previous frame corresponds to FIG. 9 , in FIG. 10 , the operation mode indicator Ki is -1. That is, the resource occupancy state is Full, and frame complexity can be reduced or maintained compared to the previous frame.
이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체는 제1 내지 제4 객체들(V1~V4)이다. 그 중 가장 후 순위의 우선순위 정보가 부여된 객체는 제4 우선순위 정보(Pr4)가 부여된 제4 객체(V4)이다. 모드 제어부(228)는 제4 객체(V4)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 제4 객체(V4)를 포함하도록 제2 영역(AR2)을 확장한다. 리소스 점유 상태가 Full이므로, 객체 인식 장치(100, 220, 320)는 저연산 모드로 객체를 인식하는 범위를 확장한다.The objects for which the object frame information Oi is generated in the high computation mode in the previous frame are the first to fourth objects V1 to V4. Among them, the object to which the lowest priority information is given is the fourth object V4 to which the fourth priority information Pr4 is assigned. The mode controller 228 changes the mode control signal Mi corresponding to the fourth object V4 into a low-computational mode control signal. The
도 11을 참조하면, 제1 우선순위 정보(Pr1)가 부여된 제3 객체(V3)는 제1 영역(AR1)에 속한다. 제1 객체(V1), 제2 객체(V2), 제4 객체(V4), 및 제5 객체(V5)는 제2 영역(AR2)에 속한다. 이전 프레임이 도 10에 대응되는 경우, 도 11은 연산 모드 지시자(Ki)가 -2인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 증가할 수 있다. 리소스 점유 상태가 Full이므로, 신속한 연산 처리가 어렵다. 추가적으로, 프레임 복잡도가 증가하므로, 이전 프레임에 비하여 연산량이 증가될 수 있다. 따라서, 연산 모드 지시자(Ki)가 -1인 경우에 비하여 연산량을 크게 낮출 필요성이 제기된다.Referring to FIG. 11 , the third object V3 to which the first priority information Pr1 is assigned belongs to the first area AR1 . The first object V1 , the second object V2 , the fourth object V4 , and the fifth object V5 belong to the second area AR2 . When the previous frame corresponds to FIG. 10 , FIG. 11 may be a case where the operation mode indicator Ki is -2. That is, the resource occupancy state is Full, and frame complexity may increase compared to the previous frame. Since the resource occupancy state is Full, it is difficult to process quickly. Additionally, since frame complexity increases, the amount of computation may be increased compared to the previous frame. Accordingly, there is a need to significantly lower the calculation amount compared to the case where the operation mode indicator Ki is -1.
이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체는 제1 내지 제3 객체들(V1~V3)이다. 그 중 가장 후 순위의 우선순위 정보가 부여된 객체는 제3 우선순위 정보(Pr3)가 부여된 제2 객체(V2)이다. 그 다음 순위의 우선순위 정보가 부여된 객체는 제2 우선순위 정보(Pr2)가 부여된 제1 객체(V1)이다. 모드 제어부(180)는 제1 객체(V1) 및 제2 객체(V2)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 제1 객체(V1) 및 제2 객체(V2)를 포함하도록 제2 영역(AR2)을 확장한다. 프레임 복잡도가 증가하므로, 저연산 모드로 변경되는 객체들의 개수가 증가한다.The objects for which the object frame information Oi is generated in the high computation mode in the previous frame are the first to third objects V1 to V3. Among them, the object to which the lowest priority information is given is the second object V2 to which the third priority information Pr3 is assigned. The object to which the priority information of the next priority is assigned is the first object V1 to which the second priority information Pr2 is assigned. The
도 12를 참조하면, 제1 영역(AR1)에 속하는 객체는 존재하지 않는다. 제1 내지 제4 객체들(V1~V4)은 제2 영역(AR2)에 속한다. 제5 객체(V5)는 제3 영역(AR3)에 속한다. 이전 프레임이 도 10에 대응되는 경우, 도 12는 연산 모드 지시자(Ki)가 -2인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 증가할 수 있다. 연산 모드 지시자(Ki)가 -2인 경우, 2개의 객체에 대한 연산 모드의 변경이 진행될 수 있다.Referring to FIG. 12 , an object belonging to the first area AR1 does not exist. The first to fourth objects V1 to V4 belong to the second area AR2 . The fifth object V5 belongs to the third area AR3 . When the previous frame corresponds to FIG. 10 , FIG. 12 may be a case where the operation mode indicator Ki is -2. That is, the resource occupancy state is Full, and frame complexity may increase compared to the previous frame. When the operation mode indicator Ki is -2, the operation mode change for two objects may proceed.
이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체는 제3 객체(V3)로 유일하다. 모드 제어부(180)는 제3 객체(V3)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 제3 객체(V3)를 포함하도록 제2 영역(AR2)을 확장한다. 인식되는 모든 객체들이 저연산 모드로 동작하고, 리소스 점유 상태가 Full인 경우, 후 순위의 우선순위 정보가 부여된 객체는 스킵 모드로 동작하고, 객체 인식을 위한 연산을 수행하지 않는다.The object in which the object frame information Oi is generated in the high computation mode in the previous frame is unique as the third object V3. The
저연산 모드로 객체 프레임 정보(Oi)가 생성된 객체들 중 가장 후 순위의 우선순위 정보가 부여된 객체는 제5 객체(V5)이다. 모드 제어부(180)는 제5 객체(V5)에 대응되는 모드 제어 신호(Mi)를 스킵 모드 제어 신호로 변경한다. 즉, 객체 프레임 정보 생성부(110)는 제5 객체(V5)에 대한 객체 프레임 정보(Oi)를 생성하지 않는다. 프레임 분석부(120)는 제5 객체(V5)에 대한 객체 추적 정보(Ti)를 생성하지 않는다. 객체 인식 장치(100, 220, 320)는 스킵 모드로 객체를 인식하는 제3 영역(AR3)을 생성한다.Among the objects for which the object frame information Oi is generated in the low-computational mode, the object to which the lowest priority priority information is given is the fifth object V5. The
도 13은 본 발명의 실시예에 따른 객체 인식 방법의 순서도이다. 도 13의 객체 인식 방법은 도 1의 객체 인식 장치(100), 도 3의 객체 인식 장치(220), 또는 도 4의 객체 인식 장치(320)에서 수행된다. 설명의 편의상, 도 13의 객체 인식 방법은 도 1의 객체 인식 장치(100)에서 수행되는 것으로 후술한다. 13 is a flowchart of an object recognition method according to an embodiment of the present invention. The object recognition method of FIG. 13 is performed by the
S100 단계에서, 객체 인식 장치(100)는 객체 프레임 정보(Oi)를 생성한다. S100 단계는 객체 프레임 정보 생성부(110)에서 수행될 수 있다. 객체 인식 장치(100)는 센싱 정보(Si)를 수신한다. 객체 인식 장치(100) 센싱 정보(Si)에 근거하여 복수의 객체를 인식할 수 있다. 객체 인식 장치(100)는 복수의 객체 각각에 대응되는 객체 프레임 정보(Oi)를 생성할 수 있다. 객체 인식 장치(100)는 고연산 모드 또는 저연산 모드로 복수의 객체를 인식하여 객체 프레임 정보(Oi)를 생성할 수 있다.In step S100 , the
S200 단계에서, 객체 인식 장치(100)는 객체 추적 정보(Ti)를 생성한다. S200 단계는 프레임 분석부(120)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 프레임 정보(Oi)에 근거하여 다음 프레임에 대한 복수의 객체의 예상 위치 또는 예상 속도를 산출한다. 객체 인식 장치(100)는 산출된 복수의 객체의 예상 위치 또는 예상 속도에 근거하여 객체 추적 정보(Ti)를 생성한다. S300 단계에서, 객체 인식 장치(100)는 주행 경로 정보(Di)를 생성한다. S300 단계는 주행 경로 분석부(130)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 추적 정보(Ti)에 근거하여 다음 프레임에 대한 주행 경로 정보(Di)를 생성한다.In step S200 , the
S400 단계에서, 객체 인식 장치(100)는 객체에 대한 우선순위 정보(Pri)를 생성한다. S400 단계는 객체 우선순위 연산기(140)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 객체와 차량의 충돌 가능성을 연산할 수 있다. 객체 인식 장치(100)가 복수의 객체를 인지한 경우, 각각의 객체와 차량 사이의 충돌 가능성에 근거하여 객체 우선순위 연산기(140)는 우선순위 정보(Pri)를 생성할 수 있다. 충돌 가능성이 높은 객체는 선순위의 우선순위 정보가 부여되고, 충돌 가능성이 낮은 객체는 후순위의 우선순위 정보가 부여될 수 있다.In step S400 , the
S500 단계에서, 객체 인식 장치(100)는 프레임 복잡도를 산출한다. S500 단계는 프레임 복잡도 연산기(150)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 프레임 복잡도를 생성할 수 있다. 예를 들어, 객체 인식 장치(100)는 객체 추적 정보(Ti)에 근거하여 객체 복잡도를 산출할 수 있다. 객체 인식 장치(100)는 주행 경로 정보(Di)에 근거하여 경로 복잡도를 산출할 수 있다. 객체 인식 장치(100)는 객체 복잡도 및 경로 복잡도를 합산하여 프레임 복잡도를 산출할 수 있다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 프레임 복잡도 정보(FCi)를 생성할 수 있다.In step S500 , the
S600 단계에서, 객체 인식 장치(100)는 리소스 점유 상태를 검출한다. S600 단계는 리소스 검출기(160)에서 수행될 수 있다. 객체 인식 장치(100)는 도 3의 프로세서(240) 또는 메모리(250)의 점유율을 감지한다. 객체 인식 장치(100)는 프로세서(240) 또는 메모리(250)의 점유율에 근거하여 리소스 정보(Resi)를 생성할 수 있다.In step S600 , the
S700 단계에서, 객체 인식 장치(100)는 객체 프레임 정보의 연산을 제어하고, 객체 인식 범위를 변경한다. 객체 프레임 정보의 연산 제어는 모드 제어부(180)에서 수행될 수 있다. 객체 인식 범위의 변경은 객체 프레임 정보 생성부(110)에서 수행될 수 있다. 객체 인식 장치(100)는 우선순위 정보(Pri), 프레임 복잡도 정보(FCi), 및 리소스 정보(Resi)에 근거하여 객체 프레임 정보(Oi)의 생성을 위한 연산량을 제어한다. S700 단계에서 객체 프레임 정보(Oi)의 연산을 제어하기 위하여, 객체 인식 장치(100)는 연산 모드 지시자(Ki)를 생성할 수 있다. 연산 모드 지시자(Ki)는 프레임 복잡도 및 리소스 점유 상태에 근거하여 결정될 수 있다. 객체 인식 장치(100)는 연산 모드 지시자(Ki)에 근거하여 객체 프레임 정보 생성부(110)의 연산량을 증가시키거나 감소시킬 수 있다. 객체 인식 장치(100)는 연산 모드 지시자(Ki)에 근거하여 객체 프레임 정보 생성부(110)의 객체 인식 범위를 증가시키거나 감소시킬 수 있다. 객체 인식 장치(100)는 고연산 모드로 인식되는 객체 인식 범위 또는 저연산 모드로 인식되는 객체 인식 범위를 증가 또는 감소시킬 수 있다.In step S700 , the
S700 단계에서 객체 프레임 정보(Oi)의 연산량은 객체 별로 다르게 결정될 수 있다. 예를 들어, 객체 인식 장치(100)는 선순위의 우선순위 정보(Pri)를 갖는 객체의 연산량을 증가시킬 수 있다. 객체 인식 장치(100)는 후순위의 우선순위 정보(Pri)를 갖는 객체의 연산량을 감소시킬 수 있다. 객체 인식 장치(100)는 객체 별로 고연산 모드, 저연산 모드, 또는 스킵 모드로 동작할 수 있다. 객체 인식 장치(100)는 리소스 점유 상태가 Full 상태인 경우, 연산량을 감소시킬 수 있다. 객체 인식 장치(100)는 리소스 점유 상태가 Not Full 상태인 경우, 연산량을 증가시킬 수 있다.In step S700, the amount of calculation of the object frame information Oi may be determined differently for each object. For example, the
S800 단계에서, 객체 인식 장치(100)는 객체 인식을 종료하거나, 다음 프레임에 대한 객체 인식을 수행할 수 있다. 객체 인식 장치(100)는 도 3의 프로세서(240)의 제어에 근거하여 객체 인식 종료 여부를 결정할 수 있다. 객체 인식을 종료하는 경우, 객체 인식 장치(100)는 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성하지 않는다. 객체 인식 장치(100)는 구동을 종료할 수 있다. 객체 인식을 종료하지 않는 경우, 객체 인식 장치(100)는 S100 단계를 다시 수행한다. 즉, 객체 인식 장치(100)는 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성한다. 이 경우, 객체 인식 장치(100)는 객체 인식을 종료할 때까지 S100 단계 내지 S700 단계를 프레임마다 반복 수행할 수 있다. In operation S800 , the
S800 단계는 자율 주행 시스템(200, 300)의 자율 주행의 종료를 판단하는 단계로 볼 수 있다. 예를 들어, 자율 주행을 종료하는 경우, 자율 주행 시스템(200, 300)은 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성하지 않는다. 자율 주행을 유지하는 경우, 자율 주행 시스템(200, 300)은 S100 단계를 다시 수행한다. 즉, 자율 주행 시스템(200, 300)은 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성한다. 이 경우, 자율 주행 시스템에 포함되는 객체 인식 장치는 자율 주행을 종료할 때까지 S100 단계 내지 S700 단계를 프레임마다 반복 수행할 수 있다.Step S800 may be viewed as a step of determining the end of autonomous driving of the
도 14는 본 발명의 실시예에 따른 객체 프레임 정보의 연산을 제어하는 방법의 순서도이다. 도 14는 도 13에서 S700 단계를 구체화한 순서도이다. 도 14를 참조하면, 객체 프레임 정보의 연산을 제어하는 방법은 도 1의 모드 제어부(180)에서 수행될 수 있다. 또한, 객체 프레임 정보의 연산을 제어하기 위하여, 도 1의 연산 모드 지시자 연산기(170)를 이용할 수 있다.14 is a flowchart of a method for controlling operation of object frame information according to an embodiment of the present invention. 14 is a flowchart illustrating step S700 in FIG. 13 . Referring to FIG. 14 , a method of controlling the operation of object frame information may be performed by the
S710 단계에서, 객체 인식 장치(100)는 리소스 점유 상태가 Full 상태인지 판단한다. 리소스 점유 상태가 Full 상태인 경우, 프로세서 또는 메모리가 과부하 상태이므로, 객체 인식 장치(100)는 이전 프레임에서의 객체 프레임 정보(Oi) 생성을 위한 연산량을 유지하기 어려운 것으로 판단한다. 즉, 리소스 점유 상태가 Full 상태인 경우, 객체 인식 장치(100)는 연산량을 감소시키도록 객체 프레임 정보 생성부(110)를 제어한다. 리소스 점유 상태가 Full 상태가 아닌 경우, 객체 인식 장치(100)는 연산량을 증가시키도록 객체 프레임 정보 생성부(110)를 제어한다. 리소스 점유 상태는 연산 모드 지시자(Ki)에 근거하여 판단될 수 있다. 예를 들어, 연산 모드 지시자(Ki)가 음수인 경우, 리소스 점유 상태가 Full 상태인 것으로 인지될 수 있다. 리소스 점유 상태가 Full 상태인 경우, S720 단계가 진행된다. 리소스 점유 상태가 Full 상태가 아닌 경우, S750 단계가 진행된다. In step S710 , the
S720 단계에서, 객체 인식 장치(100)는 이전 프레임에서 고연산 모드로 생성된 객체 프레임 정보가 존재하는지 판단한다. 고연산 모드로 생성된 객체 프레임 정보가 존재하는 경우, 고연산 모드에서 저연산 모드로 변경하기 위한 S730 단계가 수행된다. 고연산 모드로 생성된 객체 프레임 정보가 존재하지 않는 경우, 저연산 모드에서 스킵 모드로 변경하기 위한 S740 단계가 수행된다.In step S720 , the
S730 단계에서, 객체 인식 장치(100)는 이전 프레임에서 고연산 모드로 생성된 객체 프레임 정보 중 후순위의 우선순위 정보를 갖는 객체 프레임 정보를 저연산 모드로 생성하도록 제어한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 저연산 모드로 생성하는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수보다 많을 수 있다.In operation S730, the
S740 단계에서, 객체 인식 장치(100)는 이전 프레임에서 저연산 모드로 생성된 객체 프레임 정보 중 후순위의 우선순위 정보를 갖는 객체 프레임 정보의 생성을 차단한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 생성되지 않는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 스킵 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 스킵 모드로 변경하는 객체 프레임 정보의 개수보다 많을 수 있다.In operation S740 , the
S750 단계에서, 객체 인식 장치(100)는 이전 프레임에서 스킵 모드로 동작하여 생성되지 않은 객체 프레임 정보가 존재하는지 판단한다. 생성이 차단된 객체 프레임 정보가 존재하는 경우, 스킵 모드에서 저연산 모드로 변경하기 위한 S760 단계가 수행된다. 생성이 차단된 객체 프레임 정보가 존재하지 않는 경우, 저연산 모드에서 고연산 모드로 변경하기 위한 S770 단계가 수행된다.In operation S750 , the
S760 단계에서, 객체 인식 장치(100)는 이전 프레임에서 생성이 차단된 객체 프레임 정보 중 선순위의 우선순위 정보를 갖는 객체 프레임 정보를 저연산 모드로 생성하도록 제어한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 저연산 모드로 생성하는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수보다 적을 수 있다.In operation S760 , the
S770 단계에서, 객체 인식 장치(100)는 이전 프레임에서 저연산 모드로 생성된 객체 프레임 정보 중 선순위의 우선순위 정보를 갖는 객체 프레임 정보를 고연산 모드로 생성하도록 제어한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 고연산 모드로 생성하는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 고연산 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 고연산 모드로 변경하는 객체 프레임 정보의 개수보다 적을 수 있다.In operation S770 , the
위에서 설명한 내용은 본 발명을 실시하기 위한 구체적인 예들이다. 본 발명에는 위에서 설명한 실시 예들뿐만 아니라, 단순하게 설계 변경하거나 용이하게 변경할 수 있는 실시 예들도 포함될 것이다. 또한, 본 발명에는 상술한 실시 예들을 이용하여 앞으로 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다.The contents described above are specific examples for carrying out the present invention. The present invention will include not only the above-described embodiments, but also simple design changes or easily changeable embodiments. In addition, the present invention will also include techniques that can be easily modified and implemented in the future using the above-described embodiments.
100, 220, 320: 객체 인식 장치 110: 객체 프레임 정보 생성부
120: 프레임 분석부 130: 주행 경로 분석부
140: 객체 우선순위 연산기 150: 프레임 복잡도 연산기
160: 리소스 검출기 170: 연산 모드 지시자 연산기
180: 모드 제어부 200, 300: 자율 주행 시스템
210, 310: 센서부 230, 330: 차량 제어 장치100, 220, 320: object recognition device 110: object frame information generating unit
120: frame analysis unit 130: driving path analysis unit
140: object priority operator 150: frame complexity operator
160: resource detector 170: operation mode indicator operator
180:
210, 310:
Claims (20)
상기 객체 프레임 정보를 수신하고, 다음 프레임에 대한 상기 객체의 예상 위치 또는 예상 속도를 산출하여 객체 추적 정보를 생성하는 프레임 분석부;
상기 객체 추적 정보를 수신하고, 상기 객체의 거리 및 속도에 근거하여 상기 객체에 대한 우선순위 정보를 생성하는 객체 우선순위 연산기;
상기 객체 추적 정보를 수신하고, 상기 객체의 개수 및 분포에 근거하여 프레임 복잡도를 산출하는 프레임 복잡도 연산기; 및
상기 우선순위 정보, 상기 프레임 복잡도, 및 리소스 점유 상태에 근거하여 객체 인식 범위 및 상기 객체 프레임 정보 생성부의 연산량을 조정하는 상기 모드 제어 신호를 생성하는 모드 제어부를 포함하는 객체 인식 장치.an object frame information generator configured to recognize at least one object based on a mode control signal and generate object frame information;
a frame analyzer configured to receive the object frame information, calculate an expected position or an expected velocity of the object for a next frame, and generate object tracking information;
an object priority calculator for receiving the object tracking information and generating priority information on the object based on the distance and speed of the object;
a frame complexity calculator that receives the object tracking information and calculates frame complexity based on the number and distribution of the objects; and
and a mode controller configured to generate the mode control signal for adjusting an object recognition range and an amount of operation of the object frame information generator based on the priority information, the frame complexity, and a resource occupancy state.
상기 객체 추적 정보에 근거하여 상기 다음 프레임에 대한 주행 경로 정보를 생성하는 주행 경로 분석부를 더 포함하는 객체 인식 장치.According to claim 1,
The object recognition apparatus further comprising a driving path analyzer to generate driving path information for the next frame based on the object tracking information.
상기 객체 우선순위 연산기는,
상기 객체 추적 정보 및 상기 주행 경로 정보에 근거하여 상기 객체와 상기 객체 인식 장치 사이의 충돌 가능성을 연산하고, 상기 충돌 가능성에 근거하여 상기 객체에 대한 우선순위 정보를 생성하는 객체 인식 장치.3. The method of claim 2,
The object priority operator,
An object recognition apparatus for calculating a collision possibility between the object and the object recognition apparatus based on the object tracking information and the driving path information, and generating priority information on the object based on the collision possibility.
상기 프레임 복잡도 연산기는,
상기 객체 추적 정보에 근거하여 객체 복잡도를 산출하고, 상기 주행 경로 정보에 근거하여 경로 복잡도를 산출하고, 상기 객체 복잡도 및 상기 경로 복잡도에 근거하여 상기 프레임 복잡도를 산출하는 객체 인식 장치.3. The method of claim 2,
The frame complexity calculator,
An object recognition apparatus for calculating an object complexity based on the object tracking information, calculating a path complexity based on the driving path information, and calculating the frame complexity based on the object complexity and the path complexity.
상기 프레임 복잡도 및 상기 리소스 점유 상태에 근거하여 연산 모드 지시자를 생성하고, 상기 모드 제어부에 상기 연산 모드 지시자를 제공하는 연산 모드 지시자 연산기를 더 포함하는 객체 인식 장치.According to claim 1,
and an operation mode indicator operator generating an operation mode indicator based on the frame complexity and the resource occupancy state and providing the operation mode indicator to the mode control unit.
상기 모드 제어부는,
상기 연산 모드 지시자에 근거하여 고연산 모드로 동작하기 위한 고연산 모드 제어 신호, 저연산 모드로 동작하기 위한 저연산 모드 제어 신호, 또는 스킵 모드로 동작하기 위한 스킵 모드 제어 신호를 상기 객체 프레임 정보 생성부에 제공하는 객체 인식 장치.6. The method of claim 5,
The mode control unit,
The object frame information is generated by generating a high arithmetic mode control signal for operating in a high arithmetic mode, a low arithmetic mode control signal for operating in a low arithmetic mode, or a skip mode control signal for operating in a skip mode, based on the arithmetic mode indicator An object recognition device that provides wealth.
상기 연산 모드 지시자 연산기는,
상기 프레임 복잡도에 근거하여 상기 연산 모드 지시자의 절대값을 결정하고, 상기 리소스 점유 상태에 근거하여 상기 연산 모드 지시자의 극성을 결정하고,
상기 객체 프레임 정보 생성부는,
상기 연산 모드 지시자의 극성에 근거하여 상기 객체의 연산 모드를 변경하고, 상기 연산 모드 지시자의 절대값에 근거하여 상기 연산 모드를 변경하는 객체의 개수를 결정하는 객체 인식 장치.7. The method of claim 6,
The operation mode indicator operator,
determining the absolute value of the operation mode indicator based on the frame complexity, and determining the polarity of the operation mode indicator based on the resource occupancy state;
The object frame information generating unit,
The object recognition apparatus for changing the operation mode of the object based on the polarity of the operation mode indicator, and determining the number of objects for which the operation mode is changed based on the absolute value of the operation mode indicator.
상기 객체 프레임 정보 생성부는,
상기 모드 제어 신호에 근거하여 객체 연산 제어 신호를 생성하는 객체 연산 제어기; 및
상기 객체 연산 제어 신호 및 주변부를 감지하여 생성되는 센싱 정보에 근거하여 객체 프레임 정보를 생성하는 객체 연산기를 포함하는 객체 인식 장치.7. The method of claim 6,
The object frame information generating unit,
an object operation controller configured to generate an object operation control signal based on the mode control signal; and
and an object operator configured to generate object frame information based on the object operation control signal and sensing information generated by sensing a periphery.
상기 객체 연산기는,
상기 고연산 모드에서 상기 센싱 정보에 근거하여 생성되는 입력 정보를 수신하는 특징 추출 고연산기;
상기 저연산 모드에서 상기 입력 정보를 수신하고, 상기 특징 추출 고연산기보다 낮은 연산량을 갖는 특징 추출 저연산기; 및
상기 객체 연산 제어 신호에 근거하여 상기 입력 정보를 특징 추출 고연산기 또는 특징 추출 저연산기 중 어느 하나에 출력하거나, 상기 특징 추출 고연산기 및 상기 특징 추출 저연산기로의 출력을 차단하는 멀티플렉서를 포함하는 객체 인식 장치.9. The method of claim 8,
The object operator is
a feature extraction high-calculator for receiving input information generated based on the sensing information in the high-computation mode;
a feature extraction low operator receiving the input information in the low operation mode, and having a lower computational amount than the feature extraction high operator; and
An object comprising a multiplexer that outputs the input information to either a feature extraction high operator or a feature extraction low operator based on the object operation control signal, or blocks output to the feature extraction high operator and the feature extraction low operator recognition device.
상기 리소스 점유 상태를 검출하는 리소스 검출기를 더 포함하는 객체 인식 장치.According to claim 1,
The object recognition apparatus further comprising a resource detector for detecting the resource occupancy state.
상기 센싱 정보를 수신하고, 적어도 하나의 객체를 인식하여 객체 프레임 정보를 생성하는 객체 프레임 정보 생성부;
인식된 상기 객체에 근거하여 차량의 조향각 및 속도를 제어하는 차량 제어 장치;
상기 센서부, 상기 객체 프레임 정보 생성부, 및 상기 차량 제어 장치를 제어하는 프로세서;
상기 센싱 정보 또는 상기 객체 프레임 정보를 저장하는 메모리;
상기 객체 프레임 정보에 근거하여 프레임 복잡도를 연산하는 프레임 복잡도 연산기; 및
상기 프로세서 또는 상기 메모리의 리소스 점유 상태, 및 상기 프레임 복잡도에 근거하여 객체 인식 범위 및 상기 객체 프레임 정보 생성부의 연산량을 조정하는 모드 제어부를 포함하는 자율 주행 시스템.a sensor unit that detects a periphery and generates sensing information;
an object frame information generator configured to receive the sensing information, recognize at least one object, and generate object frame information;
a vehicle control device for controlling a steering angle and speed of a vehicle based on the recognized object;
a processor for controlling the sensor unit, the object frame information generation unit, and the vehicle control device;
a memory for storing the sensing information or the object frame information;
a frame complexity calculator for calculating frame complexity based on the object frame information; and
and a mode controller for adjusting an object recognition range and an amount of calculation of the object frame information generator based on the resource occupation state of the processor or the memory and the frame complexity.
상기 객체 프레임 정보를 수신하고, 다음 프레임에 대한 상기 객체의 예상 위치 또는 예상 속도를 산출하여 객체 추적 정보를 생성하는 프레임 분석부를 더 포함하는 자율 주행 시스템.12. The method of claim 11,
and a frame analyzer configured to receive the object frame information, calculate an expected position or an expected speed of the object for a next frame, and generate object tracking information.
상기 객체 추적 정보에 근거하여, 상기 다음 프레임에 대한 상기 차량의 주행 경로 정보를 생성하고, 상기 주행 경로 정보를 상기 차량 제어 장치에 제공하는 주행 경로 분석부를 더 포함하는 자율 주행 시스템.13. The method of claim 12,
and a driving path analyzer configured to generate driving path information of the vehicle for the next frame based on the object tracking information and provide the driving path information to the vehicle control device.
상기 객체 추적 정보 및 상기 주행 경로 정보를 수신하여 상기 객체와 상기 차량의 충돌 가능성을 연산하고, 상기 충돌 가능성에 근거하여 우선순위 정보를 생성하는 객체 우선순위 연산기를 더 포함하는 자율 주행 시스템.14. The method of claim 13,
The autonomous driving system further comprising: an object priority calculator configured to receive the object tracking information and the driving route information, calculate a collision probability between the object and the vehicle, and generate priority information based on the collision probability.
상기 모드 제어부는,
상기 우선순위 정보, 프레임 복잡도, 및 상기 리소스 점유 상태에 근거하여 상기 객체 인식 범위 및 상기 객체 프레임 정보 생성부의 연산량을 결정하는 모드 제어 신호를 생성하고,
상기 객체 프레임 정보 생성부는,
상기 모드 제어 신호에 근거하여 고연산 모드, 상기 고연산 모드보다 낮은 연산량을 갖는 저연산 모드, 및 스킵 모드 중 어느 하나로 동작하는 자율 주행 시스템.15. The method of claim 14,
The mode control unit,
generating a mode control signal for determining the object recognition range and the amount of computation of the object frame information generating unit based on the priority information, the frame complexity, and the resource occupancy state;
The object frame information generating unit,
An autonomous driving system operating in any one of a high calculation mode, a low calculation mode having a lower calculation amount than the high calculation mode, and a skip mode based on the mode control signal.
상기 객체 인식 장치가 인식된 상기 복수의 객체와의 충돌 가능성에 근거하여 상기 복수의 객체에 대한 우선순위 정보를 생성하는 단계;
상기 객체 인식 장치가 상기 객체 프레임 정보에 근거하여 프레임 복잡도를 산출하는 단계;
상기 객체 인식 장치가 메모리 또는 프로세서의 리소스 점유 상태를 검출하는 단계; 및
상기 객체 인식 장치가 상기 우선순위 정보, 상기 리소스 점유 상태, 및 상기 프레임 복잡도에 근거하여 상기 고연산 모드로 인식되는 객체 인식 범위 또는 상기 저연산 모드로 인식되는 객체 인식 범위를 변경하는 단계를 포함하는 객체 인식 방법.generating object frame information by recognizing, by an object recognition apparatus, a plurality of objects in a high-computational mode or a low-computational mode having a lower computational amount than the high-computational mode;
generating, by the object recognition apparatus, priority information on the plurality of objects based on the possibility of collision with the recognized objects;
calculating, by the object recognition apparatus, frame complexity based on the object frame information;
detecting, by the object recognition device, a resource occupancy state of a memory or a processor; and
Changing, by the object recognition device, the object recognition range recognized as the high-computation mode or the object recognition range recognized as the low-computation mode based on the priority information, the resource occupancy state, and the frame complexity How to recognize objects.
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Full 상태인 경우, 이전 프레임에서 상기 고연산 모드로 객체 프레임 정보가 생성된 객체 중 가장 후 순위의 우선순위 정보를 갖는 객체를 상기 저연산 모드로 인식하고, 상기 프레임 복잡도에 근거하여 상기 저연산 모드로 생성하는 객체 프레임 정보의 개수를 조정하는 객체 인식 방법.17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is the Full state, the object having the lowest priority priority information among the objects for which the object frame information is generated in the high computation mode in the previous frame is recognized as the low computation mode, and based on the frame complexity to adjust the number of object frame information generated in the low-computational mode.
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Full 상태이고 이전 프레임에서 상기 복수의 객체가 모두 상기 저연산 모드로 객체 프레임 정보가 생성된 경우, 가장 후 순위의 우선순위 정보를 갖는 객체 프레임 정보의 생성을 차단하고, 상기 프레임 복잡도에 근거하여 객체 프레임 정보의 생성이 차단되는 개수를 조정하는 객체 인식 방법.17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is Full and the object frame information is generated in the low-computation mode for all of the plurality of objects in the previous frame, the generation of object frame information having the lowest priority information is blocked, and the frame An object recognition method that adjusts the number of blocks to generate object frame information based on complexity.
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 스킵 모드로 객체 프레임 정보의 생성이 차단된 객체 중 가장 선 순위의 우선순위 정보를 갖는 객체 프레임 정보를 상기 저연산 모드로 생성하고, 상기 프레임 복잡도에 근거하여 상기 저연산 모드로 생성하는 객체 프레임 정보의 개수를 조정하는 객체 인식 방법.17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is the Not Full state, object frame information having the highest priority information among the objects whose object frame information is blocked in the skip mode in the previous frame is generated in the low computation mode, and the frame An object recognition method for adjusting the number of object frame information generated in the low-computational mode based on complexity.
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 상기 저연산 모드로 객체 프레임 정보가 생성된 객체 중 우선순위 정보를 갖는 객체 프레임 정보를 상기 고연산 모드로 생성하고, 상기 프레임 복잡도에 근거하여 상기 고연산 모드로 생성하는 객체 프레임 정보의 개수를 조정하는 객체 인식 방법.
17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is the Not Full state, object frame information having priority information is generated in the high computation mode among the objects for which the object frame information is generated in the low computation mode in the previous frame, and based on the frame complexity, An object recognition method for adjusting the number of object frame information generated in the high computation mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/804,992 US10663974B2 (en) | 2016-11-23 | 2017-11-06 | Object recognition device, autonomous driving system including the same, and object recognition method using the object recognition device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20160156767 | 2016-11-23 | ||
KR1020160156767 | 2016-11-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180058606A KR20180058606A (en) | 2018-06-01 |
KR102267040B1 true KR102267040B1 (en) | 2021-06-21 |
Family
ID=62635005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170056538A KR102267040B1 (en) | 2016-11-23 | 2017-05-02 | Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102267040B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102568111B1 (en) * | 2019-10-07 | 2023-08-17 | 현대오토에버 주식회사 | Apparatus and method for detecting road edge |
US11675366B2 (en) * | 2019-12-27 | 2023-06-13 | Motional Ad Llc | Long-term object tracking supporting autonomous vehicle navigation |
KR102520572B1 (en) * | 2020-06-22 | 2023-04-11 | 한양대학교 산학협력단 | Object detection acceleration method using image approximation and weight quantization and neural acceralator using the same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100798815B1 (en) | 2007-04-20 | 2008-01-28 | (주)지오매틱코리아 | Utilizing method of adaptive range of the integrated vehicle movement system for automatic driving |
KR101173853B1 (en) * | 2012-04-18 | 2012-08-14 | (주)한국알파시스템 | Apparatus and method for Multi-Object Recognition |
JP2013539854A (en) | 2010-09-13 | 2013-10-28 | オランジュ | Method, device and system for detecting an object |
JP2016085039A (en) | 2014-10-22 | 2016-05-19 | 株式会社デンソー | Ultrasonic wave type object detection device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101188584B1 (en) * | 2007-08-28 | 2012-10-05 | 주식회사 만도 | Apparatus for Discriminating Forward Objects of Vehicle by Using Camera And Laser Scanner |
KR101417408B1 (en) * | 2012-11-15 | 2014-07-14 | 현대자동차주식회사 | Method and system for judging object by radar |
KR102287310B1 (en) * | 2015-04-02 | 2021-08-09 | 현대자동차주식회사 | Object determination system and method of the vehicle around |
-
2017
- 2017-05-02 KR KR1020170056538A patent/KR102267040B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100798815B1 (en) | 2007-04-20 | 2008-01-28 | (주)지오매틱코리아 | Utilizing method of adaptive range of the integrated vehicle movement system for automatic driving |
JP2013539854A (en) | 2010-09-13 | 2013-10-28 | オランジュ | Method, device and system for detecting an object |
KR101173853B1 (en) * | 2012-04-18 | 2012-08-14 | (주)한국알파시스템 | Apparatus and method for Multi-Object Recognition |
JP2016085039A (en) | 2014-10-22 | 2016-05-19 | 株式会社デンソー | Ultrasonic wave type object detection device |
Also Published As
Publication number | Publication date |
---|---|
KR20180058606A (en) | 2018-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11631200B2 (en) | Prediction on top-down scenes based on action data | |
US11215997B2 (en) | Probabilistic risk assessment for trajectory evaluation | |
CN112752988B (en) | Radar space estimation | |
US10663974B2 (en) | Object recognition device, autonomous driving system including the same, and object recognition method using the object recognition device | |
JP7430277B2 (en) | Obstacle detection method and apparatus, computer device, and computer program | |
JP7239703B2 (en) | Object classification using extraterritorial context | |
US11527078B2 (en) | Using captured video data to identify pose of a vehicle | |
CN109074742B (en) | Peripheral recognition device, peripheral recognition method, and computer-readable recording medium | |
KR102267040B1 (en) | Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device | |
Kim et al. | Multi-sensor-based detection and tracking of moving objects for relative position estimation in autonomous driving conditions | |
CN117980212A (en) | Planning system based on optimization | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
US20230048926A1 (en) | Methods and Systems for Predicting Properties of a Plurality of Objects in a Vicinity of a Vehicle | |
US11861857B2 (en) | Determining pixels beyond nominal maximum sensor depth | |
US20220180539A1 (en) | Depth dependent pixel filtering | |
EP4146510A1 (en) | Trajectory classification | |
US11953590B1 (en) | Radar multipath detection based on changing virtual arrays | |
US11764806B2 (en) | Data compression system and method of using | |
US11994591B2 (en) | Determining depth using multiple modulation frequencies | |
US20230084623A1 (en) | Attentional sampling for long range detection in autonomous vehicles | |
US20220179089A1 (en) | Determining depth using multiple modulation frequencies | |
Lee et al. | Vehicle Distance Estimation from a Monocular Camera for Advanced Driver Assistance Systems. Symmetry 2022, 14, 2657 | |
Zhang et al. | A Vision-Based Method for Vehicle Forward Collision Warning | |
WO2022125612A1 (en) | Determining depth using multiple modulation frequencies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |