KR102267040B1 - Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device - Google Patents

Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device Download PDF

Info

Publication number
KR102267040B1
KR102267040B1 KR1020170056538A KR20170056538A KR102267040B1 KR 102267040 B1 KR102267040 B1 KR 102267040B1 KR 1020170056538 A KR1020170056538 A KR 1020170056538A KR 20170056538 A KR20170056538 A KR 20170056538A KR 102267040 B1 KR102267040 B1 KR 102267040B1
Authority
KR
South Korea
Prior art keywords
information
frame
mode
complexity
object recognition
Prior art date
Application number
KR1020170056538A
Other languages
Korean (ko)
Other versions
KR20180058606A (en
Inventor
석정희
김이경
여준기
전영득
조민형
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US15/804,992 priority Critical patent/US10663974B2/en
Publication of KR20180058606A publication Critical patent/KR20180058606A/en
Application granted granted Critical
Publication of KR102267040B1 publication Critical patent/KR102267040B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/24Coupling light guides
    • G02B6/26Optical coupling means
    • G02B6/35Optical coupling means having switching means
    • G02B6/3502Optical coupling means having switching means involving direct waveguide displacement, e.g. cantilever type waveguide displacement involving waveguide bending, or displacing an interposed waveguide between stationary waveguides
    • G02B6/3506Translating the waveguides along the beam path, e.g. by varying the distance between opposed waveguide ends, or by translation of the waveguide ends
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/24Coupling light guides
    • G02B6/36Mechanical coupling means
    • G02B6/3628Mechanical coupling means for mounting fibres to supporting carriers
    • G02B6/3648Supporting carriers of a microbench type, i.e. with micromachined additional mechanical structures
    • G02B6/3656Supporting carriers of a microbench type, i.e. with micromachined additional mechanical structures the additional structures being micropositioning, with microactuating elements for fine adjustment, or restricting movement, into two dimensions, e.g. cantilevers, beams, tongues or bridges with associated MEMs
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/24Coupling light guides
    • G02B6/42Coupling light guides with opto-electronic elements
    • G02B6/4201Packages, e.g. shape, construction, internal or external details
    • G02B6/4256Details of housings
    • G02B6/4262Details of housings characterised by the shape of the housing
    • G02B6/4263Details of housings characterised by the shape of the housing of the transisitor outline [TO] can type
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/16Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof the devices being of types provided for in two or more different main groups of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. forming hybrid circuits
    • H01L25/167Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof the devices being of types provided for in two or more different main groups of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. forming hybrid circuits comprising optoelectronic devices, e.g. LED, photodiodes

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Power Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법에 관한 것이다. 본 발명의 실시예에 따른 객체 인식 장치는 객체 프레임 정보 생성부, 프레임 분석부, 객체 우선순위 연산기, 프레임 복잡도 연산기, 및 모드 제어부를 포함한다. 객체 프레임 정보 생성부는 모드 제어 신호에 근거하여 객체 프레임 정보를 생성한다. 프레임 분석부는 객체 프레임 정보에 근거하여 객체 추적 정보를 생성한다. 객체 우선순위 연산기는 객체 추적 정보에 근거하여 우선순위 정보를 생성한다. 프레임 복잡도 연산기는 객체 추적 정보에 근거하여 프레임 복잡도를 산출한다. 모드 제어부는 우선순위 정보, 프레임 복잡도, 및 리소스 점유 상태에 근거하여 객체 인식 범위 및 객체 프레임 정보 생성부의 연산량을 조정하는 모드 제어 신호를 생성한다. 본 발명에 따르면, 과부하에 의한 자율 주행의 불안정성이 개선될 수 있다.The present invention relates to an object recognition apparatus, an autonomous driving system including the same, and an object recognition method using the object recognition apparatus. An object recognition apparatus according to an embodiment of the present invention includes an object frame information generator, a frame analyzer, an object priority calculator, a frame complexity calculator, and a mode controller. The object frame information generator generates object frame information based on the mode control signal. The frame analyzer generates object tracking information based on the object frame information. The object priority calculator generates priority information based on the object tracking information. The frame complexity calculator calculates the frame complexity based on the object tracking information. The mode control unit generates a mode control signal for adjusting the object recognition range and the amount of calculation of the object frame information generating unit based on priority information, frame complexity, and resource occupancy state. According to the present invention, instability of autonomous driving due to overload can be improved.

Figure R1020170056538
Figure R1020170056538

Description

객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법{OBJECTION RECOGNITION DEVICE, AUTONOMOUS TRAVEL SYSTEM INCLUDING THE SAME, AND OBJECTION RECOGNIZING METHOD USING THE OBJECTION RECOGNITION DEVICE}Object recognition device, autonomous driving system including same, and object recognition method using object recognition device

본 발명은 객체 인식을 위한 신호 처리에 관한 것으로, 좀 더 상세하게는 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법에 관한 것이다.The present invention relates to signal processing for object recognition, and more particularly, to an object recognition apparatus, an autonomous driving system including the same, and an object recognition method using the object recognition apparatus.

차량을 이용하는 사용자의 편의성을 확보하기 위하여 다양한 전자 장치들이 차량에 구비되고 있다. 특히, 주변부의 객체들을 인지하고, 객체들과의 충돌을 방지하면서 목적지에 도달할 수 있는 자율 주행 기술이 대두되고 있다. 자율 주행의 안정성을 확보하기 위하여, 다른 차량 또는 보행자 등의 객체들을 정확하게 인지하는 것이 중요하다. 뿐만 아니라, 객체들과의 일정 간격을 유지하고, 최적화된 주행 경로를 선택하는 것이 요구된다. 최적화된 주행 경로를 선택하기 위하여 다양한 방식으로 인지된 객체 정보들이 처리된다.In order to secure the convenience of a user who uses the vehicle, various electronic devices are provided in the vehicle. In particular, autonomous driving technology capable of recognizing objects in the vicinity and preventing collisions with objects to reach a destination is emerging. In order to secure the stability of autonomous driving, it is important to accurately recognize objects such as other vehicles or pedestrians. In addition, it is required to maintain a certain distance from objects and to select an optimized driving route. Object information recognized in various ways is processed in order to select an optimized driving route.

자율 주행 중인 차량은 다양한 객체들을 접할 수 있다. 특히, 출퇴근 시간의 주행, 교차로의 주행, 또는 골목길의 주행 등은 객체들의 개수 또는 주행 경로의 복잡성에 근거하여 차량의 정교한 제어가 요구된다. 이와 같이 복잡한 주변 상황에서, 자율 주행 시스템은 과부하 상태에 직면할 수 있다.An autonomous vehicle may come into contact with various objects. In particular, driving during commuting time, driving at an intersection, or driving in an alleyway requires precise control of the vehicle based on the number of objects or the complexity of the driving route. In such a complex surrounding situation, the autonomous driving system may face an overload condition.

자율 주행 시스템은 과부하 상태에서 시스템 정지 또는 오류를 초래할 수 있다. 갑작스러운 시스템의 정지 또는 오류는 도로 정체를 야기할 수 있고, 나아가 교통 사고를 초래할 수 있다. 따라서, 복잡한 주변 상황에서 자율 주행 시스템의 안정성을 확보할 수 있는 방법론이 요구된다. 또한, 인지된 객체 정보들의 처리 속도를 개선하여 신속하게 주변 상황에 대응할 수 있는 자율 주행 시스템에 대한 요구가 제기되고 있다.Autonomous driving systems can cause system freezes or errors under overload conditions. Sudden system stops or errors can cause road congestion, which in turn can lead to traffic accidents. Therefore, a methodology capable of securing the stability of the autonomous driving system in complex surrounding situations is required. In addition, there is a demand for an autonomous driving system capable of quickly responding to surrounding situations by improving the processing speed of recognized object information.

본 발명은 과부하 상태에서 자율 주행의 불안정성을 개선할 수 있는 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법을 제공할 수 있다.The present invention may provide an object recognition apparatus capable of improving instability of autonomous driving in an overload state, an autonomous driving system including the same, and an object recognition method using the object recognition apparatus.

본 발명의 실시예에 따른 객체 인식 장치는 객체 프레임 정보 생성부, 프레임 분석부, 주행 경로 분석부, 객체 우선순위 연산기, 프레임 복잡도 연산기, 리소스 검출기, 연산 모드 지시자 연산기, 및 모드 제어부를 포함한다.An object recognition apparatus according to an embodiment of the present invention includes an object frame information generator, a frame analyzer, a driving path analyzer, an object priority calculator, a frame complexity calculator, a resource detector, an operation mode indicator operator, and a mode controller.

객체 프레임 정보 생성부는 모드 제어 신호에 근거하여 적어도 하나의 객체를 인식하여 객체 프레임 정보를 생성한다. 프레임 분석부는 객체 프레임 정보를 수신한다. 프레임 분석부는 다음 프레임에 대한 객체의 예상 위치 또는 예상 속도를 산출하여 객체 추적 정보를 생성한다. 주행 경로 분석부는 객체 추적 정보에 근거하여 다음 프레임에 대한 주행 경로 정보를 생성한다.The object frame information generating unit generates object frame information by recognizing at least one object based on the mode control signal. The frame analyzer receives object frame information. The frame analyzer generates object tracking information by calculating an expected position or an expected velocity of an object for the next frame. The driving path analyzer generates driving path information for the next frame based on the object tracking information.

객체 우선순위 연산기는 객체 추적 정보 및 주행 경로 정보에 근거하여 객체와 객체 인식 장치 사이의 충돌 가능성을 연산한다. 객체 우선순위 연산기는 충돌 가능성에 근거하여 객체에 대한 우선순위 정보를 생성한다.The object priority calculator calculates the possibility of collision between the object and the object recognition device based on the object tracking information and the driving route information. The object priority operator generates priority information about objects based on the possibility of collision.

프레임 복잡도 연산기는 객체 추적 정보에 근거하여 객체 복잡도를 산출한다. 프레임 복잡도 연산기는 주행 경로 정보에 근거하여 경로 복잡도를 산출한다. 프레임 복잡도 연산기는 객체 복잡도 및 경로 복잡도에 근거하여 프레임 복잡도를 산출한다. 프레임 복잡도 연산기는 객체의 개수 및 분포에 근거하여 프레임 복잡도를 산출한다.The frame complexity calculator calculates the object complexity based on the object tracking information. The frame complexity calculator calculates the path complexity based on the driving path information. The frame complexity calculator calculates the frame complexity based on the object complexity and the path complexity. The frame complexity calculator calculates the frame complexity based on the number and distribution of objects.

연산 모드 지시자 연산기는 프레임 복잡도 및 리소스 점유 상태에 근거하여 연산 모드 지시자를 생성한다. 연산 모드 지시자 연산기는 프레임 복잡도에 근거하여 연산 모드 지시자의 절대값을 결정하고, 리소스 점유 상태에 근거하여 연산 모드 지시자의 극성을 결정한다. The operation mode indicator operator generates an operation mode indicator based on frame complexity and resource occupancy state. The arithmetic mode indicator operator determines the absolute value of the arithmetic mode indicator based on frame complexity and determines the polarity of the arithmetic mode indicator based on the resource occupancy state.

모드 제어부는 우선순위 정보, 프레임 복잡도, 및 리소스 점유 상태에 근거하여 객체 인식 범위 및 객체 프레임 정보 생성부의 연산량을 조정하는 모드 제어 신호를 생성한다. 모드 제어부는 연산 모드 지시자에 근거하여 고연산 모드 제어 신호, 저연산 모드 제어 신호, 또는 스킵 모드 제어 신호를 객체 프레임 정보 생성부에 제공한다.The mode control unit generates a mode control signal for adjusting the object recognition range and the amount of calculation of the object frame information generating unit based on priority information, frame complexity, and resource occupancy state. The mode controller provides a high-computational mode control signal, a low-computational mode control signal, or a skip mode control signal to the object frame information generator based on the operation mode indicator.

본 발명의 실시예에 따른 자율 주행 시스템은 센서부, 객체 인식 장치, 차량 제어 장치, 프로세서, 및 메모리를 포함한다. 센서부는 주변부를 감지하여 센싱 정보를 생성한다. 객체 인식 장치는 객체 프레임 정보 생성부, 프레임 분석부, 주행 경로 분석부, 객체 우선순위 연산기, 프레임 복잡도 연산기, 리소스 검출기, 연산 모드 지시자 연산기, 및 모드 제어부를 포함할 수 있다. 객체 인식 장치는 프로세서 또는 메모리의 리소스 점유 상태, 및 프레임 복잡도에 근거하여 객체 인식 범위 및 객체 프레임 정보 생성부의 연산량을 조정한다. 차량 제어 장치는 주행 경로 정보에 근거하여 차량의 조향각 및 속도를 제어한다. An autonomous driving system according to an embodiment of the present invention includes a sensor unit, an object recognition device, a vehicle control device, a processor, and a memory. The sensor unit generates sensing information by sensing the periphery. The object recognition apparatus may include an object frame information generator, a frame analyzer, a driving path analyzer, an object priority calculator, a frame complexity calculator, a resource detector, an operation mode indicator operator, and a mode controller. The object recognition apparatus adjusts the object recognition range and the amount of computation of the object frame information generator based on the resource occupancy state of the processor or memory, and the frame complexity. The vehicle control device controls the steering angle and speed of the vehicle based on the driving path information.

본 발명의 실시예에 따른 객체 인식 방법은 객체 프레임 정보를 생성하는 단계, 객체 추적 정보를 생성하는 단계, 주행 경로 정보를 생성하는 단계, 우선순위 정보를 생성하는 단계, 프레임 복잡도를 산출하는 단계, 리소스 점유 상태를 검출하는 단계, 및 객체 프레임 정보의 연산을 제어하여 객체 인식 범위를 변경하는 단계를 포함한다.An object recognition method according to an embodiment of the present invention includes the steps of generating object frame information, generating object tracking information, generating driving route information, generating priority information, calculating frame complexity; detecting a resource occupancy state, and changing the object recognition range by controlling the operation of object frame information.

일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Full 상태인 경우, 이전 프레임에서 고연산 모드로 객체 프레임 정보가 생성된 객체 중 가장 후 순위의 우선순위 정보를 갖는 객체 프레임 정보가 저연산 모드로 생성된다. 또한, 상기 프레임 복잡도에 근거하여 상기 저연산 모드로 생성하는 객체 프레임 정보의 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is Full, the object frame information having the lowest priority among the objects for which the object frame information was created in the high operation mode in the previous frame is low. It is created in arithmetic mode. Also, the number of object frame information generated in the low-computation mode is adjusted based on the frame complexity.

일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Full 상태이고 이전 프레임에서 복수의 객체 추적 정보가 모두 저연산 모드로 생성된 경우, 가장 후 순위의 우선순위 정보를 갖는 객체 프레임 정보의 생성이 차단된다. 또한, 프레임 복잡도에 근거하여 객체 프레임 정보의 생성이 차단되는 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is Full and a plurality of object tracking information in the previous frame are all generated in the low-computational mode, the object frame information having the lowest priority information creation is blocked. In addition, the number of blocking object frame information generation is adjusted based on the frame complexity.

일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 스킵 모드로 객체 프레임 정보의 생성이 차단된 객체 중 가장 선 순위의 우선순위 정보를 갖는 객체 프레임 정보가 저연산 모드로 생성된다. 또한, 프레임 복잡도에 근거하여 저연산 모드로 생성하는 객체 프레임 정보의 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is the Not Full state, the object frame information having the highest priority information among the objects whose object frame information generation is blocked in the skip mode in the previous frame is created in low-computational mode. Also, the number of object frame information generated in the low-computational mode is adjusted based on the frame complexity.

일례로, 객체 인식 범위를 변경하는 단계에서, 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 저연산 모드로 객체 프레임 정보가 생성된 객체 중 우선순위 정보를 갖는 객체 프레임 정보가 고연산 모드로 생성된다. 또한, 프레임 복잡도에 근거하여 고연산 모드로 생성하는 객체 프레임 정보의 개수가 조정된다.For example, in the step of changing the object recognition range, if the resource occupancy state is in the Not Full state, the object frame information having priority information among the objects for which the object frame information was generated in the low computation mode in the previous frame is converted to the high computation mode is created In addition, the number of object frame information generated in the high computation mode is adjusted based on the frame complexity.

본 발명의 실시예에 따른 객체 인식 장치, 이를 포함하는 자율 주행 시스템, 및 객체 인식 장치를 이용한 객체 인식 방법은 리소스 상태 및 주변부의 상태에 따라 적응적으로 신호 처리에 요구되는 연산을 조정하여 시스템의 정지 또는 오류를 방지할 수 있고, 신호 처리 속도를 개선할 수 있다.The object recognition apparatus, the autonomous driving system including the same, and the object recognition method using the object recognition apparatus according to an embodiment of the present invention adaptively adjust the operation required for signal processing according to the state of the resource and the state of the peripheral part of the system. Stops or errors can be prevented, and signal processing speed can be improved.

도 1은 본 발명의 실시예에 따른 객체 인식 장치의 블록도이다.
도 2는 본 발명의 실시예에 따른 객체 프레임 정보 생성부의 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 다른 자율 주행 시스템의 블록도이다.
도 5는 본 발명의 실시예에 따른 센서부의 블록도이다.
도 6 내지 도 8은 본 발명의 실시예에 따른 객체들의 우선순위 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 9 내지 도 12는 본 발명의 실시예에 따른 객체 인식 범위 및 연산 모드의 변화를 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 객체 인식 방법의 순서도이다.
도 14는 본 발명의 실시예에 따른 객체 프레임 정보의 연산을 제어하는 방법의 순서도이다.
1 is a block diagram of an object recognition apparatus according to an embodiment of the present invention.
2 is a block diagram of an object frame information generator according to an embodiment of the present invention.
3 and 4 are block diagrams of an autonomous driving system according to an embodiment of the present invention.
5 is a block diagram of a sensor unit according to an embodiment of the present invention.
6 to 8 are diagrams for explaining a process of generating priority information of objects according to an embodiment of the present invention.
9 to 12 are diagrams for explaining changes in the object recognition range and operation mode according to an embodiment of the present invention.
13 is a flowchart of an object recognition method according to an embodiment of the present invention.
14 is a flowchart of a method for controlling operation of object frame information according to an embodiment of the present invention.

아래에서는, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재된다.Hereinafter, embodiments of the present invention will be described clearly and in detail to the extent that those skilled in the art can easily practice the present invention.

도 1은 본 발명의 실시예에 따른 객체 인식 장치의 블록도이다. 도 1을 참조하면, 객체 인식 장치(100)는 객체 프레임 정보 생성부(110), 프레임 분석부(120), 주행 경로 분석부(130), 객체 우선순위 연산기(140), 프레임 복잡도 연산기(150), 리소스 검출기(160), 연산 모드 지시자 연산기(170), 및 모드 제어부(180)를 포함한다. 도 1의 객체 인식 장치(100)는 설명의 편의상 구성요소들을 기능별로 분류하였으나, 이에 제한되지 않고 하나의 칩 또는 집적 회로에 구성요소들이 구현될 수 있다.1 is a block diagram of an object recognition apparatus according to an embodiment of the present invention. Referring to FIG. 1 , the object recognition apparatus 100 includes an object frame information generator 110 , a frame analyzer 120 , a driving path analyzer 130 , an object priority calculator 140 , and a frame complexity calculator 150 . ), a resource detector 160 , an operation mode indicator operator 170 , and a mode controller 180 . In the object recognition apparatus 100 of FIG. 1 , components are classified according to functions for convenience of description, but the present invention is not limited thereto and components may be implemented in one chip or integrated circuit.

객체 프레임 정보 생성부(110)는 후술될 센서부로부터 센싱 정보(Si)를 수신한다. 센싱 정보(Si)는 객체 프레임 정보 생성부(110)는 센싱 정보(Si)에 근거하여 주변부의 객체를 인식한다. 객체 프레임 정보 생성부(110)는 객체의 특징 벡터를 추출하여 객체의 종류, 형상, 거리, 또는 색상 등을 인식할 수 있다. 객체 프레임 정보 생성부(110)는 인식된 객체에 근거하여 객체 프레임 정보(Oi)를 생성한다.The object frame information generating unit 110 receives sensing information Si from a sensor unit to be described later. As for the sensing information Si, the object frame information generating unit 110 recognizes an object in the vicinity based on the sensing information Si. The object frame information generating unit 110 may recognize the type, shape, distance, or color of the object by extracting the feature vector of the object. The object frame information generating unit 110 generates object frame information Oi based on the recognized object.

객체 프레임 정보 생성부(110)는 머신 러닝 알고리즘을 이용하여 객체 프레임 정보(Oi)를 생성할 수 있다. 객체 프레임 정보 생성부(110)는 머신 러닝 알고리즘으로 학습된 파라미터를 이용하여 객체들의 특징 벡터를 추출할 수 있다. 예를 들어, 객체 프레임 정보 생성부(110)는 차량, 보행자, 가드 레일과 같은 객체들을 인식하도록 학습된 파라미터를 이용하여 특징 벡터를 추출할 수 있다. 또한, 객체 프레임 정보 생성부(110)는 빗물과 같은 객체들을 인식하지 않도록 학습된 파라미터를 이용할 수 있다.The object frame information generator 110 may generate object frame information Oi using a machine learning algorithm. The object frame information generator 110 may extract feature vectors of objects by using parameters learned by a machine learning algorithm. For example, the object frame information generator 110 may extract a feature vector by using a parameter learned to recognize objects such as a vehicle, a pedestrian, and a guard rail. Also, the object frame information generating unit 110 may use the learned parameter so as not to recognize objects such as rainwater.

객체 프레임 정보(Oi)는 객체의 특징과 연관된 다양한 정보를 포함할 수 있다. 예를 들어, 객체 프레임 정보(Oi)는 객체 ID 정보, 객체 종류 정보, 객체 위치 정보, 객체 크기 정보, 또는 객체 색상 정보 중 적어도 하나를 포함할 수 있다. 객체 프레임 정보 생성부(110)는 프레임 단위로 객체 프레임 정보(Oi)를 생성한다. 객체 프레임 정보 생성부(110)는 객체의 이동 또는 사용자 차량의 이동에 따라, 이전 프레임에 대한 객체 프레임 정보와 다른 객체 프레임 정보(Oi)를 생성한다.The object frame information Oi may include various types of information related to characteristics of an object. For example, the object frame information Oi may include at least one of object ID information, object type information, object location information, object size information, and object color information. The object frame information generating unit 110 generates object frame information Oi in units of frames. The object frame information generating unit 110 generates object frame information Oi different from the object frame information for the previous frame according to the movement of the object or the movement of the user's vehicle.

프레임 분석부(120)는 객체 프레임 정보(Oi)를 수신한다. 프레임 분석부(120)는 객체 프레임 정보(Oi)에 근거하여 객체 추적 정보(Ti)를 생성한다. 프레임 분석부(120)는 다음 프레임에 대한 객체의 위치를 예측하여 객체 추적 정보(Ti)를 생성한다. 예를 들어, 프레임 분석부(120)는 현재 프레임에 대한 객체 프레임 정보(Oi)를 수신하고, 이전 프레임에 대한 객체 추적 정보(Ti)와 객체 프레임 정보(Oi)를 비교 및 분석할 수 있다. The frame analyzer 120 receives the object frame information Oi. The frame analyzer 120 generates object tracking information Ti based on the object frame information Oi. The frame analyzer 120 generates object tracking information Ti by predicting the position of the object with respect to the next frame. For example, the frame analyzer 120 may receive the object frame information Oi for the current frame, and compare and analyze the object tracking information Ti and the object frame information Oi for the previous frame.

프레임 분석부(120)는 이전 프레임에 대한 객체 추적 정보(Ti)와 객체 프레임 정보(Oi)의 차이에 근거하여 객체의 예상 위치 또는 예상 속도를 예측할 수 있다. 프레임 분석부(120)는 객체의 예상 위치 또는 예상 속도에 근거하여 객체 추적 정보(Ti)를 생성할 수 있다. 또는, 프레임 분석부(120)는 이전 프레임에 대한 객체 프레임 정보(Oi)와 현재 프레임에 대한 객체 프레임 정보(Oi)를 이용하여 객체 추적 정보(Ti)를 생성할 수 있다. 프레임 분석부(120)는 프레임 단위로 객체 추적 정보(Ti)를 생성한다.The frame analyzer 120 may predict the expected position or the expected speed of the object based on the difference between the object tracking information Ti and the object frame information Oi for the previous frame. The frame analyzer 120 may generate the object tracking information Ti based on the predicted position or the predicted speed of the object. Alternatively, the frame analyzer 120 may generate the object tracking information Ti by using the object frame information Oi of the previous frame and the object frame information Oi of the current frame. The frame analyzer 120 generates the object tracking information Ti in units of frames.

객체 추적 정보(Ti)는 객체의 특징과 연관된 다양한 정보를 포함할 수 있다. 예를 들어, 객체 추적 정보(Ti)는 객체 ID 정보, 객체 종류 정보, 객체 위치 정보, 객체 속도 정보, 객체 생성 정보, 객체 소멸 정보, 객체 크기 정보, 또는 객체 색상 정보 중 적어도 하나를 포함할 수 있다. 객체 위치 정보는 다음 프레임에 대한 객체의 예상 위치 정보일 수 있다. 객체 속도 정보는 다음 프레임에 대한 객체의 예상 속도 정보일 수 있다. 객체 생성 정보는 새로운 객체가 인지되는 경우 제공될 수 있다. 또는, 객체 생성 정보는 후술될 스킵 모드에서 저연산 모드로 변경될 경우, 객체를 추적 대상에 포함하기 위하여 제공될 수 있다. 객체 소멸 정보는 인지되었던 객체가 더 이상 인지되지 않는 경우 제공될 수 있다. 또는, 객체 소멸 정보는 후술될 스킵 모드에 의하여 객체가 추적 대상에서 제외되는 경우 제공될 수 있다.The object tracking information Ti may include various types of information related to characteristics of an object. For example, the object tracking information Ti may include at least one of object ID information, object type information, object location information, object speed information, object creation information, object destruction information, object size information, or object color information. have. The object location information may be estimated location information of an object for a next frame. The object speed information may be information on the expected speed of the object for the next frame. The object creation information may be provided when a new object is recognized. Alternatively, when the object creation information is changed from a skip mode to a low-computation mode to be described later, the object creation information may be provided to include the object in the tracking target. Object destruction information may be provided when the recognized object is no longer recognized. Alternatively, object destruction information may be provided when an object is excluded from tracking by a skip mode, which will be described later.

주행 경로 분석부(130)는 객체 추적 정보(Ti)를 수신한다. 주행 경로 분석부(130)는 객체 추적 정보(Ti)에 근거하여 주행 경로 정보(Di)를 생성한다. 주행 경로 분석부(130)는 다음 프레임에 대한 차량의 주행 경로를 판단하여 주행 경로 정보(Di)를 생성한다. 주행 경로 분석부(130)는 최적화된 주행 경로를 결정하기 위하여 외부의 메모리 또는 스토리지로부터 주행 맵 정보 및 목적지 정보를 수신할 수 있다. 주행 경로 분석부(130)는 주행 맵 정보 및 목적지 정보에 근거하여 목적지까지의 최적화 경로를 판단할 수 있다. The driving path analyzer 130 receives the object tracking information Ti. The driving path analysis unit 130 generates driving path information Di based on the object tracking information Ti. The driving path analysis unit 130 generates driving path information Di by determining the driving path of the vehicle for the next frame. The driving path analyzer 130 may receive driving map information and destination information from an external memory or storage to determine an optimized driving path. The driving path analysis unit 130 may determine an optimized path to the destination based on the driving map information and the destination information.

주행 경로 분석부(130)는 주행 경로 정보(Di)를 후술될 차량 제어 장치에 제공한다. 차량 제어 장치는 주행 경로 정보(Di)를 수신하여 다음 프레임에 이동할 주행 경로를 인식할 수 있다. 차량 제어 장치는 주행 경로 정보(Di)에 근거하여 차량을 제어한다. 주행 경로 분석부(130)는 프레임 단위로 주행 경로 정보(Di)를 생성한다.The driving path analysis unit 130 provides driving path information Di to a vehicle control device to be described later. The vehicle control device may receive the driving path information Di and recognize the driving path to be moved in the next frame. The vehicle control device controls the vehicle based on the driving route information Di. The driving path analysis unit 130 generates driving path information Di in units of frames.

객체 우선순위 연산기(140)는 프레임 분석부(120)로부터 객체 추적 정보(Ti)를 수신한다. 객체 우선순위 연산기(140)는 주행 경로 분석부(130)로부터 주행 경로 정보(Di)를 수신한다. 객체 우선순위 연산기(140)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 우선순위 정보(Pri)를 생성한다. 복수의 객체가 인지되는 경우, 우선순위는 자율 주행시 우선적으로 고려될 필요성 또는 중요도에 근거한다.The object priority calculator 140 receives the object tracking information Ti from the frame analyzer 120 . The object priority calculator 140 receives the driving path information Di from the driving path analysis unit 130 . The object priority calculator 140 generates priority information Pri based on the object tracking information Ti and the driving route information Di. When a plurality of objects are recognized, the priority is based on the necessity or importance to be considered preferentially during autonomous driving.

우선순위 정보(Pri)는 객체 ID 정보, 객체 위치 정보, 및 객체 우선순위 정보를 포함할 수 있다. 예를 들어, 객체 우선순위 정보는 인지된 객체들 중 차량의 주행에 영향을 미칠 가능성에 대한 순위와 연관된 정보일 수 있다. 우선순위 정보(Pri)는 차량과 객체 사이의 충돌 가능성에 근거하여 생성될 수 있다. 즉, 차량과의 충돌 가능성이 높은 객체는 선순위에 해당하는 우선순위 정보(Pri)를 가질 수 있다.The priority information Pri may include object ID information, object location information, and object priority information. For example, the object priority information may be information related to a priority of a possibility of affecting the driving of a vehicle among recognized objects. The priority information Pri may be generated based on the possibility of collision between the vehicle and the object. That is, the object having a high probability of collision with the vehicle may have priority information Pri corresponding to the priority.

객체 우선순위 연산기(140)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)를 이용하여 객체들과 차량 사이의 충돌 가능성을 연산할 수 있다. 객체 우선순위 연산기(140)는 객체 추적 정보(Ti)를 이용하여 객체들의 위치, 속도, 및 이동 방향을 검출할 수 있다. 객체 우선순위 연산기(140)는 주행 경로 정보(Di)를 이용하여 차량의 위치, 속도, 및 이동 방향을 검출할 수 있다. 객체 우선순위 연산기(140)는 검출된 정보들을 이용하여 객체들과 차량 사이의 거리 차이, 속도 차이, 및 주행 방향 차이를 검출할 수 있다. 객체 우선순위 연산기(140)는 연산된 객체들과 차량 사이의 관계에 근거하여 객체들 각각에 대한 충돌 가능성을 연산한다. 객체 우선순위 연산기(140)는 충돌 가능성이 높은 객체 ID에 선순위의 우선순위를 부여한다.The object priority calculator 140 may calculate the possibility of collision between objects and the vehicle using the object tracking information Ti and the driving path information Di. The object priority calculator 140 may detect the position, speed, and movement direction of the objects by using the object tracking information Ti. The object priority calculator 140 may detect the position, speed, and movement direction of the vehicle by using the driving route information Di. The object priority calculator 140 may detect a distance difference, a speed difference, and a driving direction difference between the objects and the vehicle by using the detected information. The object priority calculator 140 calculates a collision probability for each of the objects based on the relationship between the calculated objects and the vehicle. The object priority calculator 140 gives priority to the object ID having a high probability of collision.

프레임 복잡도 연산기(150)는 프레임 분석부(120)로부터 객체 추적 정보(Ti)를 수신한다. 프레임 복잡도 연산기(150)는 주행 경로 분석부(130)로부터 주행 경로 정보(Di)를 수신한다. 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 프레임 복잡도를 산출한다. 프레임 복잡도 연산기(150)는 산출된 프레임 복잡도에 근거하여 프레임 복잡도 정보(FCi)를 생성한다. 프레임 복잡도 연산기(150)는 주행 경로를 프레임 복잡도에 반영하기 위하여 외부의 메모리 또는 스토리지로부터 주행 맵 정보를 수신할 수 있다.The frame complexity calculator 150 receives the object tracking information Ti from the frame analyzer 120 . The frame complexity calculator 150 receives the driving path information Di from the driving path analyzer 130 . The frame complexity calculator 150 calculates the frame complexity based on the object tracking information Ti and the driving route information Di. The frame complexity calculator 150 generates frame complexity information FCi based on the calculated frame complexity. The frame complexity calculator 150 may receive driving map information from an external memory or storage in order to reflect the driving route to the frame complexity.

프레임 복잡도는 객체 복잡도와 경로 복잡도로 구분될 수 있다. 객체 복잡도는 객체의 개수와 객체들의 분포에 근거하여 산출될 수 있다. 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti)에 근거하여 객체의 개수와 객체들의 분포를 산출할 수 있다. 예를 들어, 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti)에 포함된 객체 ID 정보들의 개수에 근거하여 객체의 개수를 산출할 수 있다. 프레임 복잡도 연산기(150)는 객체 추적 정보(Ti)에 포함된 객체 위치 정보들을 추출하여 객체들의 분포에 따른 분산을 계산할 수 있다. 객체의 개수가 증가할수록 객체 복잡도는 증가하고, 객체들의 분포에 따른 분산이 증가할수록 객체 복잡도는 감소한다. 프레임 복잡도 연산기(150)는 객체의 개수를 분산으로 나눈 후 가중치 계수를 곱셈 연산하여 객체 복잡도를 산출할 수 있다.Frame complexity can be divided into object complexity and path complexity. The object complexity may be calculated based on the number of objects and the distribution of objects. The frame complexity calculator 150 may calculate the number of objects and a distribution of objects based on the object tracking information Ti. For example, the frame complexity calculator 150 may calculate the number of objects based on the number of object ID information included in the object tracking information Ti. The frame complexity calculator 150 may extract object location information included in the object tracking information Ti to calculate a variance according to the distribution of objects. As the number of objects increases, the object complexity increases, and as the distribution of objects increases, the object complexity decreases. The frame complexity calculator 150 may calculate the object complexity by dividing the number of objects by the variance and then multiplying the weight coefficients.

경로 복잡도는 주행 경로의 상태에 근거하여 산출될 수 있다. 프레임 복잡도 연산기(150)는 주행 경로 정보(Di) 또는 주행 맵 정보에 근거하여 경로 복잡도를 산출할 수 있다. 예를 들어, 프레임 복잡도 연산기(150)는 주행 경로 정보(Di) 또는 주행 맵 정보로부터 주행 경로의 차선의 개수, 객체 분포에 따른 분산, 교차로의 개수, 및 교통 신호의 개수 등을 산출할 수 있다. 프레임 복잡도 연산기(150)는 차선의 개수, 객체 분포에 따른 분산, 교차로의 개수, 및 교통 신호의 개수 각각에 대한 가중치 계수를 곱셈 연산할 수 있다. 프레임 복잡도 연산기(150)는 가중치가 반영된 차선의 개수, 객체 분포에 따른 분산, 교차로의 개수, 및 교통 신호의 개수를 합산하여 경로 복잡도를 산출할 수 있다. 프레임 복잡도는 객체 복잡도 및 경로 복잡도의 합으로 산출될 수 있다.The path complexity may be calculated based on the state of the driving path. The frame complexity calculator 150 may calculate the route complexity based on the driving route information Di or the driving map information. For example, the frame complexity calculator 150 may calculate the number of lanes of a driving route, a variance according to object distribution, the number of intersections, and the number of traffic signals from the driving route information Di or the driving map information. . The frame complexity calculator 150 may multiply a weight coefficient for each of the number of lanes, the variance according to the object distribution, the number of intersections, and the number of traffic signals. The frame complexity calculator 150 may calculate the route complexity by summing the number of lanes to which weights are reflected, variance according to object distribution, the number of intersections, and the number of traffic signals. The frame complexity may be calculated as the sum of object complexity and path complexity.

리소스 검출기(160)는 리소스 점유 상태를 검출한다. 리소스 점유 상태는 후술될 프로세서 또는 메모리의 점유 상태에 대응된다. 리소스 검출기(160)는 프로세서 또는 메모리의 점유율을 감지한다. 리소스 검출기(160)는 프로세서 또는 메모리의 점유율에 근거하여 리소스 정보(Resi)를 생성한다. The resource detector 160 detects a resource occupancy state. The resource occupancy state corresponds to an occupancy state of a processor or memory, which will be described later. The resource detector 160 detects the occupancy of the processor or memory. The resource detector 160 generates resource information Resi based on the occupancy of the processor or memory.

객체 인식 장치(100)는 프로세서의 제어에 따라 객체 프레임 정보(Oi), 객체 추적 정보(Ti), 주행 경로 정보(Di), 우선순위 정보(Pri), 및 프레임 복잡도 정보(FCi)를 생성할 수 있다. 객체 인식 장치(100)는 객체 프레임 정보(Oi), 객체 추적 정보(Ti), 주행 경로 정보(Di), 우선순위 정보(Pri), 및 프레임 복잡도 정보(FCi)를 메모리에 저장할 수 있다. 객체들이 인지되는 개수가 많을수록, 프로세서의 연산량이 증가하고, 프로세서의 과부하가 예상된다. 객체들이 인지되는 개수가 많을수록, 메모리에 저장되는 데이터량이 증가하고, 메모리의 과부하가 예상된다. 즉, 객체들이 인지되는 개수가 많을수록, 프로세서 또는 메모리의 점유율이 증가한다.The object recognition apparatus 100 may generate object frame information Oi, object tracking information Ti, driving route information Di, priority information Pri, and frame complexity information FCi under the control of the processor. can The object recognition apparatus 100 may store object frame information Oi, object tracking information Ti, driving route information Di, priority information Pri, and frame complexity information FCi in a memory. As the number of objects recognized increases, the amount of computation of the processor increases, and overload of the processor is expected. As the number of objects recognized increases, the amount of data stored in the memory increases, and overload of the memory is expected. That is, as the number of objects recognized increases, the occupancy of the processor or memory increases.

연산 모드 지시자 연산기(170)는 프레임 복잡도 연산기(150)로부터 프레임 복잡도 정보(FCi)를 수신한다. 연산 모드 지시자 연산기(170)는 리소스 검출기(160)로부터 리소스 정보(Resi)를 수신한다. 연산 모드 지시자 연산기(170)는 프레임 복잡도 정보(FCi) 및 리소스 정보(Resi)에 근거하여 연산 모드 지시자(Ki)를 생성한다. 연산 모드 지시자(Ki)는 프레임 복잡도 및 리소스 점유 상태에 근거하여 생성된다.The operation mode indicator operator 170 receives the frame complexity information FCi from the frame complexity operator 150 . The operation mode indicator operator 170 receives the resource information Resi from the resource detector 160 . The operation mode indicator operator 170 generates the operation mode indicator Ki based on the frame complexity information FCi and the resource information Resi. The operation mode indicator Ki is generated based on frame complexity and resource occupancy status.

연산 모드 지시자(Ki)는 프레임 복잡도의 증가, 감소, 또는 유지여부에 의하여 결정될 수 있다. 연산 모드 지시자(Ki)는 리소스 점유 상태가 Full 상태인지 Full 상태가 아닌지에 의하여 결정될 수 있다. 예를 들어, 연산 모드 지시자(Ki)는 표 1과 같이, 프레임 복잡도 및 리소스 점유 상태에 근거하여 결정될 수 있다.The operation mode indicator Ki may be determined by whether the frame complexity is increased, decreased, or maintained. The operation mode indicator Ki may be determined depending on whether the resource occupancy state is a full state or not a full state. For example, as shown in Table 1, the operation mode indicator Ki may be determined based on frame complexity and resource occupancy state.

프레임 복잡도Frame Complexity 리소스 점유 상태resource occupancy status 연산 모드 지시자(Ki)Operation mode indicator (Ki) 증가increase FullFull -2-2 감소 또는 유지decrease or maintain FullFull -1-One 증가increase Not FullNot Full 1One 감소 또는 유지decrease or maintain Not FullNot Full 22

표 1을 참조하면, 연산 모드 지시자 연산기(170)는 리소스 점유 상태에 근거하여 연산 모드 지시자(Ki)의 극성을 결정할 수 있다. 연산 모드 지시자 연산기(170)는 프레임 복잡도에 근거하여 연산 모드 지시자(Ki)의 절대값을 결정할 수 있다. 표 1의 연산 모드 지시자(Ki) 생성은 4개의 지시자로 구분되는 것으로 설명하였으나, 이에 제한되지 않는다. 예를 들어, 프레임 복잡도 또는 리소스 점유 상태의 구분 기준을 달리하여, 연산 모드 지시자(Ki)는 4개보다 많거나 4개 보다 적은 개수로 구분될 수 있다.Referring to Table 1, the operation mode indicator operator 170 may determine the polarity of the operation mode indicator Ki based on the resource occupancy state. The operation mode indicator operator 170 may determine the absolute value of the operation mode indicator Ki based on the frame complexity. Although it has been described that the generation of the operation mode indicator Ki in Table 1 is divided into four indicators, the present invention is not limited thereto. For example, the number of operation mode indicators Ki may be divided into more than four or less than four by different classification criteria for frame complexity or resource occupancy state.

프레임 복잡도가 이전 프레임보다 증가하고, 리소스 점유 상태가 Full 상태인 경우, 연산 모드 지시자(Ki)는 -2를 나타낸다. 프레임 복잡도가 이전 프레임보다 감소하거나 동일하고, 리소스 점유 상태가 Full 상태인 경우, 연산 모드 지시자(Ki)는 -1을 나타낸다. 프레임 복잡도가 이전 프레임보다 증가하고, 리소스 점유 상태가 Not Full 상태인 경우, 연산 모드 지시자(Ki)는 1을 나타낸다. 프레임 복잡도가 이전 프레임보다 감소하거나 동일하고, 리소스 점유 상태가 Not Full 상태인 경우, 연산 모드 지시자(Ki)는 2를 나타낸다. 즉, 연산 모드 지시자 연산기(170)는 리소스 점유 상태에 여유가 있고, 프레임 복잡도가 낮을수록, 높은 값을 갖는 연산 모드 지시자(Ki)를 생성할 수 있다.When the frame complexity increases from the previous frame and the resource occupancy state is the Full state, the operation mode indicator Ki indicates -2. When the frame complexity is reduced or the same as that of the previous frame and the resource occupancy state is the Full state, the operation mode indicator Ki indicates -1. When the frame complexity increases from the previous frame and the resource occupancy state is the Not Full state, the operation mode indicator Ki indicates 1. When the frame complexity is reduced or the same as that of the previous frame and the resource occupancy state is the Not Full state, the operation mode indicator Ki indicates 2. That is, the arithmetic mode indicator operator 170 can generate the arithmetic mode indicator Ki having a high value as the resource occupancy state has a margin and the frame complexity is low.

모드 제어부(180)는 연산 모드 지시자 연산기(170)로부터 연산 모드 지시자(Ki)를 수신한다. 모드 제어부(180)는 객체 우선순위 연산기(140)로부터 우선순위 정보(Pri)를 수신한다. 모드 제어부(180)는 연산 모드 지시자(Ki) 및 우선순위 정보(Pri)에 근거하여 모드 제어 신호(Mi)를 생성한다. 모드 제어부(180)는 우선순위 정보(Pri)에 근거하여 객체들의 연산 처리의 변환 순위를 결정할 수 있다. 모드 제어부(180)는 연산 모드 지시자(Ki)에 근거하여 객체들의 연산 처리에 대한 변환 여부를 결정할 수 있다.The mode controller 180 receives the operation mode indicator Ki from the operation mode indicator operator 170 . The mode controller 180 receives the priority information Pri from the object priority operator 140 . The mode controller 180 generates the mode control signal Mi based on the operation mode indicator Ki and the priority information Pri. The mode controller 180 may determine the conversion order of the calculation processing of objects based on the priority information Pri. The mode control unit 180 may determine whether to convert the operation processing of objects based on the operation mode indicator Ki.

모드 제어부(180)는 고연산 모드 제어 신호, 저연산 모드 제어 신호, 및 스킵 모드 제어 신호 중 적어도 하나를 모드 제어 신호(Mi)로 선택할 수 있다. 고연산 모드 제어 신호는 객체 인식 장치(100)가 고연산 모드로 동작하도록 제어한다. 저연산 모드 제어 신호는 객체 인식 장치(100)가 저연산 모드로 동작하도록 제어한다. 스킵 모드 제어 신호는 객체 인식 장치(100)가 스킵 모드로 동작하도록 제어한다. 고연산 모드에서 객체 인식 장치(100)는 객체 프레임 정보(Oi) 또는 객체 추적 정보(Ti)를 생성할 때, 정확성을 확보하기 위하여 연산량을 높게 설정한다. 저연산 모드에서 객체 인식 장치(100)는 객체 프레임 정보(Oi) 또는 객체 추적 정보(Ti)를 생성할 때, 프로세서 또는 메모리의 과부하를 방지하기 위하여 연산량을 고연산 모드보다 낮게 설정한다. 스킵 모드에서 객체 인식 장치(100)는 객체 프레임 정보(Oi) 또는 객체 추적 정보(Ti)의 생성을 차단한다.The mode control unit 180 may select at least one of a high arithmetic mode control signal, a low arithmetic mode control signal, and a skip mode control signal as the mode control signal Mi. The high-computational mode control signal controls the object recognition apparatus 100 to operate in the high-computational mode. The low-computational mode control signal controls the object recognition apparatus 100 to operate in the low-computational mode. The skip mode control signal controls the object recognition apparatus 100 to operate in the skip mode. When generating the object frame information Oi or the object tracking information Ti in the high computation mode, the object recognition apparatus 100 sets the amount of computation to be high in order to secure accuracy. When generating the object frame information Oi or the object tracking information Ti in the low computation mode, the object recognition apparatus 100 sets the amount of computation to be lower than that in the high computation mode in order to prevent overload of the processor or memory. In the skip mode, the object recognition apparatus 100 blocks generation of object frame information Oi or object tracking information Ti.

모드 제어부(180)는 객체 단위로 고연산 모드 제어 신호, 저연산 모드 제어 신호, 또는 스킵 모드 제어 신호를 생성할 수 있다. 모드 제어부(180)는 고연산 모드에 의하여 연산되는 객체들의 영역, 저연산 모드에 의하여 연산되는 객체들의 영역, 및 스킵 모드에 의하여 연산이 제한되는 객체들의 영역을 결정할 수 있다. 모드 제어 신호(Mi)는 연산 모드 정보 및 영역 정보를 포함할 수 있다. 연산 모드 정보는 객체 인식 장치(100)의 동작 모드를 결정하는 정보일 수 있다. 영역 정보는 고연산 모드, 저연산 모드, 또는 스킵 모드로 동작하는 객체 인식 범위에 대한 정보일 수 있다. 객체 인식 장치(100)는 영역 정보에 근거하여 해당 영역에 속하는 객체들의 동작 모드를 결정할 수 있다.The mode controller 180 may generate a high arithmetic mode control signal, a low arithmetic mode control signal, or a skip mode control signal in units of objects. The mode controller 180 may determine a region of objects operated by the high computation mode, a region of objects operated by the low computation mode, and a region of objects whose operation is restricted by the skip mode. The mode control signal Mi may include operation mode information and region information. The operation mode information may be information for determining an operation mode of the object recognition apparatus 100 . The region information may be information about an object recognition range operating in a high-computational mode, a low-computational mode, or a skip mode. The object recognition apparatus 100 may determine operation modes of objects belonging to a corresponding area based on area information.

모드 제어부(180)는 모드 제어 신호(Mi)를 객체 프레임 정보 생성부(110)에 제공한다. 객체 프레임 정보 생성부(110)는 모드 제어 신호(Mi)에 근거하여 객체 인식을 위한 연산량을 결정한다. 객체 프레임 정보 생성부(110)는 모드 제어 신호(Mi)에 따라, 객체 인식을 위한 연산량을 증가시킬지, 감소시킬지, 또는 연산을 하지 않을지 결정한다. 모드 제어부(180)는 모드 제어 신호(Mi)를 프레임 분석부(120)에 제공한다. 프레임 분석부(120)는 모드 제어 신호(Mi) 중 스킵 모드 제어 신호에 대응하여 추적 대상에서 제외될 객체를 결정할 수 잇다. 프레임 분석부(120)는 스킵 모드에 대응하는 객체에 대한 연산을 하지 않는다. 따라서, 다음 프레임에 대한 객체 추적 정보(Ti)를 생성하기 위한 연산량 및 연산 시간을 줄일 수 있다.The mode controller 180 provides the mode control signal Mi to the object frame information generator 110 . The object frame information generator 110 determines the amount of computation for object recognition based on the mode control signal Mi. The object frame information generator 110 determines whether to increase, decrease, or not perform an operation for object recognition according to the mode control signal Mi. The mode controller 180 provides the mode control signal Mi to the frame analyzer 120 . The frame analyzer 120 may determine an object to be excluded from tracking in response to the skip mode control signal among the mode control signals Mi. The frame analyzer 120 does not perform an operation on the object corresponding to the skip mode. Accordingly, it is possible to reduce the amount of computation and computation time for generating the object tracking information Ti for the next frame.

모드 제어부(180)는 표 1의 기준에 따른 연산 모드 지시자(Ki)를 수신할 수 있다. 연산 모드 지시자(Ki)가 음수인 경우, 이전 프레임에서 고연산 모드로 연산한 객체들 중 가장 후 순위의 우선순위 정보(Pri)를 갖는 객체를 저연산 모드로 연산한다. 연산 모드 지시자(Ki)가 음수인 경우, 이전 프레임에서 저연산 모드로 연산한 객체들 중 가장 후 순위의 우선순위 정보(Pri)를 갖는 객체를 연산하지 않는다. 연산 모드 지시자(Ki)가 -2인 경우, 고연산 모드에서 저연산 모드로 변환하거나 저연산 모드에서 스킵 모드로 변환하는 객체들의 개수가 2개로 설정될 수 있다. 연산 모드 지시자(Ki)가 -1인 경우, 고연산 모드에서 저연산 모드로 변환하거나 저연산 모드에서 스킵 모드로 변환하는 객체들의 개수가 1개로 설정될 수 있다.The mode controller 180 may receive the operation mode indicator Ki according to the criteria of Table 1. When the operation mode indicator Ki is a negative number, the object having the lowest priority information Pri among the objects calculated in the high operation mode in the previous frame is calculated in the low operation mode. When the operation mode indicator Ki is a negative number, the object having the lowest priority priority information Pri among the objects calculated in the low operation mode in the previous frame is not calculated. When the operation mode indicator Ki is -2, the number of objects converted from the high operation mode to the low operation mode or from the low operation mode to the skip mode may be set to two. When the operation mode indicator Ki is -1, the number of objects converted from the high operation mode to the low operation mode or from the low operation mode to the skip mode may be set to one.

연산 모드 지시자(Ki)가 양수인 경우, 이전 프레임에서 스킵 모드로 동작하여 연산하지 않은 객체들 중 가장 선 순위의 우선순위 정보(Pri)를 갖는 객체를 저연산 모드로 연산한다. 연산 모드 지시자(Ki)가 양수인 경우, 이전 프레임에서 저연산 모드로 연산한 객체들 중 가장 선 순위의 우선순위 정보(Pri)를 갖는 객체를 고연산 모드로 연산한다. 연산 모드 지시자(Ki)가 2인 경우 스킵 모드에서 저연산 모드로 변환하거나 저연산 모드에서 고연산 모드로 변환하는 객체들의 개수가 2개로 설정될 수 있다. 연산 모드 지시자(Ki)가 1인 경우 스킵 모드에서 저연산 모드로 변환하거나 저연산 모드에서 고연산 모드로 변환하는 객체들의 개수가 1개로 설정될 수 있다.When the operation mode indicator Ki is a positive number, the object having the highest priority information Pri among objects that have not operated in the skip mode in the previous frame and have not been calculated is calculated in the low operation mode. When the operation mode indicator Ki is a positive number, the object having the highest priority information Pri among the objects calculated in the low operation mode in the previous frame is calculated in the high operation mode. When the operation mode indicator Ki is 2, the number of objects converted from the skip mode to the low operation mode or from the low operation mode to the high operation mode may be set to two. When the operation mode indicator Ki is 1, the number of objects converted from the skip mode to the low operation mode or from the low operation mode to the high operation mode may be set to one.

객체 인식 장치(100)는 프레임 복잡도 및 리소스 점유 상태에 근거하여 적응적으로 연산량을 조정할 수 있다. 객체 인식 장치(100)는 리소스 점유 상태가 Full 상태인 경우, 연산량을 점차적으로 감소시키고, 후순위의 객체들을 인식하지 않을 수 있다. 따라서, 객체 인식 장치(100)는 자율 주행 시스템의 과부하에 따른 처리속도 저하 또는 오류를 개선할 수 있다. 객체 인식 장치(100)는 프레임 복잡도가 복잡한 경우, 연산량의 증가 정도를 낮추거나, 연산량의 감소 정도를 높일 수 있다. 따라서, 객체 인식 장치(100)는 복잡한 주변부 상황에서, 연산 처리에 따른 과부하를 방지할 수 있다.The object recognition apparatus 100 may adaptively adjust the amount of computation based on frame complexity and resource occupancy state. When the resource occupancy state is the Full state, the object recognition apparatus 100 may gradually decrease the amount of computation and may not recognize lower-order objects. Accordingly, the object recognition apparatus 100 may improve processing speed degradation or errors due to overload of the autonomous driving system. When the frame complexity is complex, the object recognition apparatus 100 may decrease the degree of increase in the amount of calculation or increase the degree of decrease in the amount of calculation. Accordingly, the object recognition apparatus 100 may prevent overload due to computational processing in a complex peripheral situation.

도 2는 본 발명의 실시예에 따른 객체 프레임 정보 생성부의 블록도이다. 객체 프레임 정보 생성부(110)는 도 1의 객체 프레임 정보 생성부(110)에 대응된다. 도 2를 참조하면, 객체 프레임 정보 생성부(110)는 객체 연산 제어기(111) 및 객체 연산기(112)를 포함한다. 객체 연산기(112)는 복수의 멀티플렉서들(MUX), 제1 내지 제n 특징 추출 고연산기들(H1~Hn), 제1 내지 제n 특징 추출 저연산기들(L1~Ln), 및 완전 접속망(Fully Connected Network) 연산기(FCN)를 포함한다.2 is a block diagram of an object frame information generator according to an embodiment of the present invention. The object frame information generation unit 110 corresponds to the object frame information generation unit 110 of FIG. 1 . Referring to FIG. 2 , the object frame information generator 110 includes an object operation controller 111 and an object operator 112 . The object operator 112 includes a plurality of multiplexers (MUX), first to nth feature extraction high operators (H1 to Hn), first to nth feature extraction low operators (L1 to Ln), and a full access network ( Fully Connected Network) operator (FCN) is included.

객체 연산 제어기(111)는 도 1의 모드 제어부(180)로부터 모드 제어 신호(Mi)를 수신한다. 객체 연산 제어기(111)는 모드 제어 신호(Mi)에 근거하여 복수의 객체 연산기 제어 신호(C0~Cn+1)를 생성한다. 객체 연산 제어기(111)는 복수의 객체 연산기 제어 신호(C0~Cn+1)를 이용하여 객체 연산기(112)를 제어한다. 복수의 객체 연산기 제어 신호(C0~Cn+1)는 모드 제어 신호(Mi)의 종류에 따라 다른 값을 가질 수 있다. 즉, 고연산 모드 제어 신호에 의한 복수의 객체 연산기 제어 신호(C0~Cn+1), 저연산 모드 제어 신호에 의한 복수의 객체 연산기 제어 신호(C0~Cn+1), 및 스킵 모드 제어 신호에 의한 복수의 객체 연산기 제어 신호(C0~Cn+1)는 서로 다른 값을 가질 수 있다.The object operation controller 111 receives the mode control signal Mi from the mode controller 180 of FIG. 1 . The object operation controller 111 generates a plurality of object operator control signals C0 to Cn+1 based on the mode control signal Mi. The object operation controller 111 controls the object operator 112 using the plurality of object operator control signals C0 to Cn+1. The plurality of object operator control signals C0 to Cn+1 may have different values according to the type of the mode control signal Mi. That is, the plurality of object operator control signals (C0~Cn+1) by the high operation mode control signal, the plurality of object operator control signals (C0~Cn+1) by the low operation mode control signal, and the skip mode control signal The plurality of object operator control signals C0 to Cn+1 may have different values.

객체 연산기(112)는 복수의 객체 연산기 제어 신호(C0~Cn+1)를 수신한다. 객체 연산기(111)는 센싱 정보(Si)를 수신한다. 복수의 객체 연산기 제어 신호(C0~Cn+1)는 복수의 멀티플렉서(MUX1~MUXn+1)에 인가된다. 복수의 멀티플렉서(MUX1~MUXn+1)는 복수의 객체 연산기 제어 신호(C0~Cn+1)에 근거하여 입력되는 정보의 출력 경로를 결정한다. 객체 연산기(112)는 객체에 대한 다양한 특징을 추출하기 위하여 다층 구조로 배치된 복수의 멀티플렉서(MUX1~MUXn+1), 제1 내지 제n 특징 추출 고연산기들(H1~Hn), 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)을 포함한다.The object operator 112 receives a plurality of object operator control signals C0 to Cn+1. The object operator 111 receives the sensing information Si. The plurality of object operator control signals C0 to Cn+1 are applied to the plurality of multiplexers MUX1 to MUXn+1. The plurality of multiplexers MUX1 to MUXn+1 determine an output path of input information based on the plurality of object operator control signals C0 to Cn+1. The object operator 112 includes a plurality of multiplexers (MUX1 to MUXn+1) arranged in a multi-layered structure to extract various features of an object, first to nth feature extraction high operators (H1 to Hn), and first to nth feature extraction low operators (L1 to Ln).

제0 멀티플렉서(MUX0)는 제0 객체 연산기 제어 신호(C0)에 근거하여 센싱 정보(Si)의 전달 경로를 결정한다. 제0 객체 연산기 제어 신호(C0)가 고연산 모드 제어 신호에 근거하여 생성된 경우, 제0 멀티 플렉서(MUX0)는 센싱 정보(Si)를 제1 특징 추출 고연산기(H1)로 출력한다. 제0 객체 연산기 제어 신호(C0)가 저연산 모드 제어 신호에 근거하여 생성된 경우, 제0 멀티 플렉서(MUX0)는 센싱 정보(Si)를 제1 특징 추출 저연산기(L1)로 출력한다. 제1 내지 제n-1 멀티 플렉서들(MUX1~MUXn-1)은 제1 내지 제n-1 객체 연산기 제어 신호들(C1~Cn-1)에 근거하여 입력 정보를 제2 내지 제n 특징 추출 고연산기(H2~Hn) 또는 제2 내지 제n 특징 추출 저연산기(L2~Ln)로 출력한다.The zeroth multiplexer MUX0 determines a transmission path of the sensing information Si based on the zeroth object operator control signal C0. When the zeroth object operator control signal C0 is generated based on the high computation mode control signal, the zeroth multiplexer MUX0 outputs the sensing information Si to the first feature extraction high operator H1. When the zeroth object operator control signal C0 is generated based on the low operation mode control signal, the zeroth multiplexer MUX0 outputs the sensing information Si to the first feature extraction low operator L1. The first to n-1 th multiplexers MUX1 to MUXn-1 convert input information based on the first to n-1 th object operator control signals C1 to Cn-1 to the second to nth features It outputs to the extraction high operator (H2 to Hn) or the second to nth feature extraction low operator (L2 to Ln).

제1 내지 제n 특징 추출 고연산기들(H1~Hn) 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)은 감지된 센싱 정보(Si)에서 특정한 특징을 추출하기 위한 연산기이다. 특정한 특징은 객체의 크기, 색상, 종류, 또는 위치를 포함할 수 있다. 예를 들어, 제1 내지 제n 특징 추출 고연산기들(H1~Hn) 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)은 입력된 정보를 컨벌루션(convolution) 연산 및 서브샘플링(Sub-sampling)을 수행할 수 있다. 객체 연산기(112)의 컨벌루션 연산 및 서브샘플링은 특징이 추출되는 영역을 한정하는 컨벌루션 신경망(Convolution Neural Networks) 방식에 대응될 수 있다. 정보들이 제1 내지 제n 특징 추출 고연산기들(H1~Hn) 및 제1 내지 제n 특징 추출 저연산기들(L1~Ln)을 통과하면서, 특징이 추출되는 영역은 점점 줄어들고, 특징에 대응되는 정보만 추출될 수 있다. The first to nth feature extraction high operators H1 to Hn and the first to nth feature extraction low operators L1 to Ln are operators for extracting a specific feature from the sensed sensing information Si. Specific characteristics may include the size, color, type, or location of the object. For example, the first to nth feature extraction high operators (H1 to Hn) and the first to nth feature extraction low operators (L1 to Ln) perform a convolution operation and subsampling (Sub) on the input information. -sampling) can be performed. The convolution operation and subsampling of the object operator 112 may correspond to a convolutional neural network method that limits an area from which a feature is extracted. As the information passes through the first to nth feature extraction high operators (H1 to Hn) and the first to nth feature extraction low operators (L1 to Ln), the area from which features are extracted gradually decreases, and Only information can be extracted.

제1 내지 제n 특징 추출 고연산기들(H1~Hn)은 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 비하여 많은 연산량을 갖는다. 다만, 제1 내지 제n 특징 추출 고연산기들(H1~Hn)은 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 비하여 정확하게 특징을 추출하고, 객체를 인식할 수 있다. 고연산 모드에서 객체 프레임 정보 생성부(110)는 객체 인식의 정확성을 확보하기 위하여 제1 내지 제n 특징 추출 고연산기들(H1~Hn)을 이용할 수 있다. 저연산 모드에서 객체 프레임 정보 생성부(110)는 자율 주행 시스템의 과부하로 인한 오류 또는 처리 시간 지연을 방지하기 위하여 제1 내지 제n 특징 추출 저연산기들(L1~Ln)을 이용할 수 있다.The first to nth feature extraction high operators H1 to Hn have a greater amount of computation than the first to nth feature extraction low operators L1 to Ln. However, the first to nth feature extraction high operators H1 to Hn can more accurately extract features and recognize objects compared to the first to nth low feature extraction operators L1 to Ln. In the high computation mode, the object frame information generating unit 110 may use the first to nth feature extraction high operators H1 to Hn in order to secure the accuracy of object recognition. In the low-computational mode, the object frame information generator 110 may use the first to nth feature extraction low-computers L1 to Ln to prevent errors or processing time delays due to overload of the autonomous driving system.

완전 접속망 연산기(FCN)는 수많은 경로에 의하여 처리된 정보들을 수신한다. 완전 접속망 연산기(FCN)는 복수의 영역들로 분류된 정보들을 매핑한다. 완전 접속망 연산기(FCN)는 복수의 영역들로 분류된 정보들을 수집하여 객체 프레임 정보(Oi)를 생성한다. 완전 접속망 연산기(FCN)는 일차원 행렬인 객체 프레임 정보(Oi)를 생성할 수 있다. 객체 연산기(112)는 상술한 CNN 방식에 의한 딥 러닝 기술 이외에도 다양한 방식을 이용하여 객체를 인식할 수 있다. 예를 들어, 객체 연산기(112)는 haar-like 특징 벡터 또는 HoG(Histogram of Gradients) 특징 벡터를 이용하여 객체를 인식할 수 있다. 또는, 객체 연산기(112)는 Adaboost, SVM과 같은 분류기를 이용하여 객체를 인식할 수 있다.A full access network operator (FCN) receives information processed by a number of paths. A full access network calculator (FCN) maps information classified into a plurality of areas. A full access network operator (FCN) generates object frame information Oi by collecting information classified into a plurality of areas. A full access network operator (FCN) may generate object frame information Oi that is a one-dimensional matrix. The object operator 112 may recognize an object using various methods in addition to the deep learning technique by the CNN method described above. For example, the object operator 112 may recognize an object using a haar-like feature vector or a histogram of gradients (HoG) feature vector. Alternatively, the object operator 112 may recognize an object using a classifier such as Adaboost or SVM.

도 3은 자율 주행 시스템의 블록도이다. 도 3을 참조하면, 자율 주행 시스템(200)은 센서부(210), 객체 인식 장치(220), 차량 제어 장치(230), 프로세서(240), 메모리(250), 스토리지(260), 디스플레이(270), 및 버스(BUS, 280)를 포함한다. 자율 주행 시스템(200)은 이외에도 자율 주행의 목적을 달성하기 위한 다양한 구성 요소들을 더 포함할 수 있다. 예를 들어, 자율 주행 시스템(200)은 목적지까지의 경로 정보 등을 수신하기 위한 내비게이션(navigation) 장치, 외부의 전자 장치와의 통신을 위한 통신 모듈 장치, 또는 사용자가 차량 주행에 관여하기 위한 사용자 인터페이스 등을 더 포함할 수 있다.3 is a block diagram of an autonomous driving system. Referring to FIG. 3 , the autonomous driving system 200 includes a sensor unit 210 , an object recognition device 220 , a vehicle control device 230 , a processor 240 , a memory 250 , a storage 260 , and a display ( 270 ), and a bus 280 . The autonomous driving system 200 may further include various components for achieving the purpose of autonomous driving. For example, the autonomous driving system 200 may be a navigation device for receiving route information to a destination, a communication module device for communication with an external electronic device, or a user for engaging in vehicle driving. It may further include an interface and the like.

센서부(210)는 주변부로부터 신호를 수신한다. 센서부(210)는 주위의 사물들로부터 제공되는 신호를 감지할 수 있다. 또는, 센서부(210)는 주위의 사물들에 신호를 제공하고, 사물들로부터 반사된 신호를 감지할 수 있다. 센서부(210)는 모든 방향의 객체들을 감지하기 위하여 복수의 감지 센서들을 포함할 수 있다. 예를 들어, 자율 주행 시스템(200)이 차량에 구비되는 경우, 센서부(210)는 차량의 전방, 후방, 및 측방에 구비될 수 있다. 센서부(210)는 객체들을 정확하게 감지하기 위하여 다양한 종류의 감지 센서들을 포함할 수 있다.The sensor unit 210 receives a signal from a peripheral unit. The sensor unit 210 may detect signals provided from surrounding objects. Alternatively, the sensor unit 210 may provide a signal to surrounding objects and detect a signal reflected from the objects. The sensor unit 210 may include a plurality of detection sensors to detect objects in all directions. For example, when the autonomous driving system 200 is provided in a vehicle, the sensor unit 210 may be provided at the front, rear, and sides of the vehicle. The sensor unit 210 may include various types of detection sensors to accurately detect objects.

객체 인식 장치(220)는 도 1의 객체 인식 장치(100)일 수 있다. 객체 인식 장치(220)는 센서부(210)가 감지한 신호에 근거하여 주위의 객체들을 인식한다. 객체들은 차량, 보행자, 동물, 가드 레일, 장애물 등을 포함할 수 있다. 객체 인식 장치(220)는 객체들의 특징을 추출하고 분류한다. 예를 들어, 객체 인식 장치(220)는 주변부의 영상 정보를 수신하고, 영상 정보를 분석하여 객체들의 특징 벡터를 추출할 수 있다. 객체 인식 장치(220)는 특징 벡터에 근거하여 배경과 객체를 구분할 수 있다. 객체 인식 장치(220)는 프레임 단위로 객체들을 인식할 수 있다. 따라서, 객체 인식 장치(220)는 객체의 정적인 위치뿐만 아니라, 객체의 동적인 움직임을 인식할 수 있다.The object recognition apparatus 220 may be the object recognition apparatus 100 of FIG. 1 . The object recognition apparatus 220 recognizes surrounding objects based on the signal detected by the sensor unit 210 . Objects may include vehicles, pedestrians, animals, guard rails, obstacles, and the like. The object recognition apparatus 220 extracts and classifies features of objects. For example, the object recognizing apparatus 220 may receive image information of a periphery, analyze the image information, and extract feature vectors of objects. The object recognition apparatus 220 may distinguish the background from the object based on the feature vector. The object recognition apparatus 220 may recognize objects in units of frames. Accordingly, the object recognition apparatus 220 may recognize not only the static position of the object, but also the dynamic movement of the object.

차량 제어 장치(230)는 차량의 속도 및 조향각을 제어한다. 이외에도, 차량 제어 장치(230)는 전조등과 같은 차량에 구비되는 다양한 장치들을 제어할 수 있다. 차량 제어 장치(230)는 객체 인식 장치(220)로부터 인식한 객체들에 의존하여 차량을 제어한다. 즉, 자율 주행 시스템(200)을 구비한 차량은 다른 객체와의 충돌을 방지하고 최적화된 주행 경로를 제공하기 위하여 주위의 객체들의 존재, 위치, 이동을 감지한다. 차량 제어 장치(230)는 객체 인식 장치(120)에서 인식한 객체 정보들에 기초하여 차량의 움직임을 제어한다.The vehicle control device 230 controls the speed and the steering angle of the vehicle. In addition, the vehicle control device 230 may control various devices provided in the vehicle, such as a headlamp. The vehicle control device 230 controls the vehicle depending on the objects recognized by the object recognition device 220 . That is, the vehicle equipped with the autonomous driving system 200 detects the presence, location, and movement of surrounding objects in order to prevent collision with other objects and provide an optimized driving route. The vehicle control apparatus 230 controls the movement of the vehicle based on the object information recognized by the object recognition apparatus 120 .

프로세서(240)는 자율 주행 시스템(200)의 중앙 제어 장치의 기능을 수행할 수 있다. 프로세서(240)는 자율 주행 시스템(200)을 구현하기 위하여 요구되는 제어 동작 및 연산 동작을 수행할 수 있다. 예를 들어, 객체 인식 장치(220)는 프로세서(240)의 제어에 따라 센서부(210)로부터 신호를 수신하고, 객체들을 인식할 수 있다. 차량 제어 장치(230)는 프로세서(240)의 제어에 따라 객체 인식 장치(220)로부터 객체들에 대한 정보를 수신하고, 차량의 움직임을 제어할 수 있다. 프로세서(240)는 메모리(250)의 연산 공간을 활용하여 동작할 수 있다. 프로세서(240)는 스토리지(260)에서 운영체제를 구동하기 위한 파일들 및 어플리케이션의 실행 파일들을 읽을 수 있다. 프로세서(240)는 운영 체제 및 다양한 어플리케이션들을 실행할 수 있다.The processor 240 may perform a function of a central control device of the autonomous driving system 200 . The processor 240 may perform a control operation and a calculation operation required to implement the autonomous driving system 200 . For example, the object recognition apparatus 220 may receive a signal from the sensor unit 210 under the control of the processor 240 and recognize objects. The vehicle control apparatus 230 may receive information on objects from the object recognition apparatus 220 under the control of the processor 240 and control the movement of the vehicle. The processor 240 may operate by utilizing the operation space of the memory 250 . The processor 240 may read files for driving an operating system and executable files of applications from the storage 260 . The processor 240 may execute an operating system and various applications.

메모리(250)는 프로세서(240)에 의하여 처리되거나 처리될 예정인 데이터 및 프로세스 코드들을 저장할 수 있다. 예를 들어, 메모리(250)는 센서부(210)에서 감지한 정보들, 객체 인식 장치(220)에서 객체를 인식하기 위한 정보들, 객체 인식 장치(220)에서 인식된 객체에 대한 정보들을 저장할 수 있다. 메모리(250)는 자율 주행 시스템(200)의 주기억 장치로 이용될 수 있다. 메모리(250)는 DRAM (Dynamic RAM), SRAM (Static RAM), PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.The memory 250 may store data and process codes to be processed or to be processed by the processor 240 . For example, the memory 250 stores information detected by the sensor unit 210 , information for recognizing an object by the object recognition apparatus 220 , and information on an object recognized by the object recognition apparatus 220 . can The memory 250 may be used as a main memory of the autonomous driving system 200 . The memory 250 may include a dynamic RAM (DRAM), a static RAM (SRAM), a phase-change RAM (PRAM), a magnetic RAM (MRAM), a ferroelectric RAM (FeRAM), and a resistive RAM (RRAM).

스토리지(260)는 운영 체제 또는 어플리케이션들에 의해 장기적인 저장을 목적으로 생성되는 데이터, 운영 체제를 구동하기 위한 파일, 또는 어플리케이션들의 실행 파일 등을 저장할 수 있다. 예를 들어, 스토리지(260)는 센서부(210), 객체 인식 장치(220), 및 차량 제어 장치(230)의 실행을 위한 파일들을 저장할 수 있다. 스토리지(260)는 자율 주행 시스템(200)의 보조 기억 장치로 이용될 수 있다. 스토리지(260)는 플래시 메모리, PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.The storage 260 may store data generated for long-term storage by the operating system or applications, a file for driving the operating system, or executable files of applications. For example, the storage 260 may store files for execution of the sensor unit 210 , the object recognition device 220 , and the vehicle control device 230 . The storage 260 may be used as an auxiliary storage device of the autonomous driving system 200 . The storage 260 may include a flash memory, a phase-change RAM (PRAM), a magnetic RAM (MRAM), a ferroelectric RAM (FeRAM), a resistive RAM (RRAM), or the like.

디스플레이(270)는 센서부(210), 객체 인식 장치(220), 또는 차량 제어 장치(230)에 의하여 생성된 데이터를 수신하여 표시할 수 있다. 디스플레이(270)는 메모리(250) 또는 스토리지(260)에 저장된 데이터를 수신하여 표시할 수 있다. 디스플레이(270)는 LCD (Liquid Crystal Display), OLED (Organic Light Emitting Diode), AMOLED (Active Matrix OLED), 플렉서블 디스플레이, 전자잉크 등을 포함할 수 있다.The display 270 may receive and display data generated by the sensor unit 210 , the object recognition device 220 , or the vehicle control device 230 . The display 270 may receive and display data stored in the memory 250 or the storage 260 . The display 270 may include a liquid crystal display (LCD), an organic light emitting diode (OLED), an active matrix OLED (AMOLED), a flexible display, electronic ink, and the like.

버스(280)는 자율 주행 시스템(200)의 구성 요소들 사이에서 통신 경로를 제공할 수 있다. 센서부(210), 객체 인식 장치(220), 차량 제어 장치(230), 프로세서(240), 메모리(250), 스토리지(260), 및 디스플레이(270)는 버스(280)를 통해 서로 데이터를 교환할 수 있다. 버스(280)는 자율 주행 시스템(200)에서 이용되는 다양한 유형의 통신 포맷을 지원하도록 구성될 수 있다.The bus 280 may provide a communication path between the components of the autonomous driving system 200 . The sensor unit 210 , the object recognition device 220 , the vehicle control device 230 , the processor 240 , the memory 250 , the storage 260 , and the display 270 transmit data to each other through the bus 280 . can be exchanged Bus 280 may be configured to support various types of communication formats used in autonomous driving system 200 .

도 4는 자율 주행 시스템의 블록도이다. 도 4를 참조하면, 자율 주행 시스템(300)은 센서부(310), 객체 인식 장치(320), 및 차량 제어 장치(330)를 포함한다. 도 4의 자율 주행 시스템(300)은 각 구성요소들 사이의 정보 송수신 관계를 구체적으로 설명하기 위한 블록도로 이해될 것이다.4 is a block diagram of an autonomous driving system. Referring to FIG. 4 , the autonomous driving system 300 includes a sensor unit 310 , an object recognition device 320 , and a vehicle control device 330 . The autonomous driving system 300 of FIG. 4 will be understood as a block diagram for specifically explaining the information transmission/reception relationship between each component.

센서부(310)는 주변부를 감지하여 센싱 정보(Si)를 생성한다. 센서부(310)는 주변부를 감지하여 생성된 아날로그 신호를 디지털 신호인 센싱 정보(Si)로 변환할 수 있다. 센서부(310)는 아날로그 신호를 디지털 신호로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 센서부(310)는 프레임 단위로 주변부를 감지하여 프레임 단위의 센싱 정보(Si)를 생성할 수 있다.The sensor unit 310 generates sensing information Si by sensing the surrounding area. The sensor unit 310 may convert an analog signal generated by sensing the peripheral portion into sensing information Si, which is a digital signal. The sensor unit 310 may include an analog-to-digital converter for converting an analog signal into a digital signal. The sensor unit 310 may generate the sensing information Si in units of frames by sensing the periphery in units of frames.

객체 인식 장치(320)는 도 1의 객체 인식 장치(100)일 수 있다. 객체 인식 장치(320)는 센서부(310)로부터 센싱 정보(Si)를 수신한다. 객체 인식 장치(320)는 센싱 정보(Si)를 분석하여 객체들을 인식한다. 객체 인식 장치(320)는 프레임 단위로 센싱 정보(Si)를 수신한다. 따라서, 객체 인식 장치(320)는 시간의 흐름에 따른 객체의 움직임 또는 변화를 인식할 수 있다. 객체 인식 장치(320)는 센서부(310)의 주변부의 감지 범위에 근거하여 인식 가능한 객체들의 개수를 프레임 단위로 결정할 수 있다. 예를 들어, 객체 인식 장치(320)는 특정 반경의 범위에 존재하는 객체들을 인지할 수 있다. The object recognition apparatus 320 may be the object recognition apparatus 100 of FIG. 1 . The object recognition apparatus 320 receives sensing information Si from the sensor unit 310 . The object recognition apparatus 320 analyzes the sensing information Si to recognize objects. The object recognition apparatus 320 receives the sensing information Si in units of frames. Accordingly, the object recognition apparatus 320 may recognize the movement or change of the object over time. The object recognition apparatus 320 may determine the number of recognizable objects in units of frames based on the sensing range of the peripheral portion of the sensor unit 310 . For example, the object recognition apparatus 320 may recognize objects existing in a range of a specific radius.

객체 인식 장치(320)는 인지할 객체들을 프레임 단위로 추가하거나 삭제할 수 있다. 또는 객체 인식 장치(320)는 객체들을 인지하기 위한 연산량을 조정할 수 있다. 예를 들어, 객체 인식 장치(320)는 이전 프레임에서 인지된 객체의 위치 또는 속도에 근거하여 자율 주행의 안정성에 영향을 미칠 가능성이 낮은 객체를 인지하지 않거나, 연산량을 낮출 수 있다. 객체 인식 장치(320)는 이전 프레임에서 인지되지 않은 새로운 객체를 인지할 수 있다. 새로운 객체가 자율 주행의 안정성에 영향을 미칠 가능성이 있는 경우, 객체 인식 장치(320)는 새로운 객체를 인지하거나, 기존의 객체를 인식하기 위한 연산량을 높일 수 있다. 객체들의 추가, 삭제 또는 연산량 변경의 기준은 객체의 우선순위, 프레임 복잡도, 및 리소스 점유 상태에 근거하여 설정될 수 있다.The object recognition apparatus 320 may add or delete objects to be recognized in units of frames. Alternatively, the object recognition apparatus 320 may adjust the amount of computation for recognizing objects. For example, the object recognition apparatus 320 may not recognize an object that is less likely to affect the stability of autonomous driving based on the position or speed of the object recognized in the previous frame, or may reduce the amount of computation. The object recognition apparatus 320 may recognize a new object not recognized in the previous frame. When a new object is likely to affect the stability of autonomous driving, the object recognition apparatus 320 may recognize a new object or increase the amount of computation for recognizing an existing object. Criteria for adding objects, deleting objects, or changing the amount of computation may be set based on object priority, frame complexity, and resource occupancy state.

객체 인식 장치(320)는 인지된 객체들에 근거하여 주행 경로 정보(Di)를 생성한다. 주행 경로 정보(Di)는 다음 프레임에 대한 차량의 주행 경로에 대한 정보를 포함한다. 객체 인식 장치(320)는 객체들의 위치 및 속도에 근거하여 주행 경로 정보(Di)를 생성할 수 있다. 객체 인식 장치(320)는 도 3의 메모리(250) 또는 스토리지(260)에 저장된 목적지 정보 또는 맵 정보를 추가적으로 수신할 수 있다. 객체 인식 장치(320)는 센싱 정보(Si)에 근거하여 객체들과 차량 사이의 관계를 분석하고, 목적지 정보 또는 맵 정보에 근거하여 최적화된 경로를 분석한 후, 주행 경로 정보(Di)를 생성할 수 있다.The object recognition apparatus 320 generates driving route information Di based on the recognized objects. The driving path information Di includes information on the driving path of the vehicle for the next frame. The object recognition apparatus 320 may generate driving route information Di based on the positions and velocities of the objects. The object recognition apparatus 320 may additionally receive destination information or map information stored in the memory 250 or storage 260 of FIG. 3 . The object recognition apparatus 320 analyzes a relationship between objects and a vehicle based on the sensing information Si, and analyzes an optimized route based on destination information or map information, and then generates driving route information Di. can do.

차량 제어 장치(330)는 객체 인식 장치(320)로부터 주행 경로 정보(Di)를 수신한다. 다만, 이에 제한되지 않고, 차량 제어 장치(330)는 객체 인식 장치(320)로부터 객체들에 대한 정보를 수신하고, 주행 경로 정보(Di)를 직접 생성할 수 있다. 이 경우, 차량 제어 장치(330)는 도 3의 메모리(250) 또는 스토리지(260)로부터 목적지 정보 또는 맵 정보를 수신할 수 있다. The vehicle control device 330 receives the driving route information Di from the object recognition device 320 . However, the present invention is not limited thereto, and the vehicle control device 330 may receive information on objects from the object recognition device 320 and directly generate the driving route information Di. In this case, the vehicle control device 330 may receive destination information or map information from the memory 250 or the storage 260 of FIG. 3 .

차량 제어 장치(330)는 주행 경로 정보(Di)에 근거하여 차량 제어 신호를 생성한다. 차량 제어 신호는 차량이 주행 경로로 이동하기 위한 조향각 또는 속도를 제어하기 위한 신호일 수 있다. 차량 제어 장치(330)는 차량 제어 신호를 차량의 주행을 위한 차량 구동 장치에 제공한다. 차량 구동 장치는 차량 제어 신호에 근거하여 사용자의 관여 없이 차량을 주행 경로로 이동시킨다. 차량 구동 장치는 차량의 이동 속도 및 조향각을 결정하기 위한 장치를 포함할 수 있다.The vehicle control device 330 generates a vehicle control signal based on the driving path information Di. The vehicle control signal may be a signal for controlling a steering angle or speed for moving the vehicle on a driving path. The vehicle control device 330 provides the vehicle control signal to the vehicle driving device for driving the vehicle. The vehicle driving device moves the vehicle to a driving path without user intervention based on the vehicle control signal. The vehicle drive device may include a device for determining the moving speed and the steering angle of the vehicle.

도 5는 도 4의 센서부의 블록도이다. 도 5을 참조하면, 센서부(310)는 카메라 센서(311), 레이다 센서(312), 및 라이다 센서(313)를 포함한다. 도 3의 센서부(310)는 복수의 신호를 감지하기 위한 일 실시예로 이해될 것이다. 센서부(310)는 주변부를 감지하기 위한 다양한 센서들을 더 포함할 수 있다. 예를 들어, 센서부(310)는 소리를 감지하는 마이크로폰을 더 포함할 수 있다.FIG. 5 is a block diagram of the sensor unit of FIG. 4 . Referring to FIG. 5 , the sensor unit 310 includes a camera sensor 311 , a radar sensor 312 , and a lidar sensor 313 . The sensor unit 310 of FIG. 3 will be understood as an embodiment for detecting a plurality of signals. The sensor unit 310 may further include various sensors for detecting the surrounding area. For example, the sensor unit 310 may further include a microphone for detecting a sound.

카메라 센서(311)는 주변부의 영상을 감지한다. 카메라 센서(311)는 감지된 영상에 근거하여 영상 프레임 정보(Ci)를 생성한다. 카메라 센서(311)는 감지된 아날로그 신호를 디지털 신호인 영상 프레임 정보(Ci)로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 카메라 센서(311)는 복수의 카메라를 포함할 수 있다. 복수의 카메라는 차량의 전방, 측방, 및 후방에 배치될 수 있다. 복수의 카메라는 서로 다른 방향의 영상을 촬영할 수 있다. 즉, 카메라 센서(311)는 자율 주행 시스템(300)의 안정성을 확보하기 위하여 주변부 전체의 영상을 감지하기 위한 복수의 카메라를 구비할 수 있다.The camera sensor 311 detects an image of the surrounding area. The camera sensor 311 generates image frame information Ci based on the detected image. The camera sensor 311 may include an analog-to-digital converter for converting the sensed analog signal into image frame information Ci, which is a digital signal. The camera sensor 311 may include a plurality of cameras. The plurality of cameras may be disposed on the front, side, and rear of the vehicle. The plurality of cameras may capture images in different directions. That is, the camera sensor 311 may include a plurality of cameras for detecting images of the entire periphery in order to secure the stability of the autonomous driving system 300 .

레이다(Radar) 센서(312)는 주변부에 전자파를 방사하고, 반사된 전자파를 감지한다. 레이다 센서(312)는 마이크로파를 방사할 수 있다. 레이다 센서(312)는 반사된 마이크로파에 근거하여 레이다 프레임 정보(Ri)를 생성한다. 레이다 센서(312)는 감지된 아날로그 신호를 디지털 신호인 레이다 프레임 정보(Ri)로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 레이다 센서(312)는 반사된 전자파의 시간에 근거하여 객체의 거리 및 방향을 측정할 수 있다. 레이다 센서(312)는 주변부의 전 방향에 전자파를 방사하여 감지 범위 내의 모든 방향에 존재하는 객체를 감지할 수 있다.The radar sensor 312 radiates an electromagnetic wave to the periphery and detects the reflected electromagnetic wave. The radar sensor 312 may emit microwaves. The radar sensor 312 generates radar frame information Ri based on the reflected microwave. The radar sensor 312 may include an analog-to-digital converter for converting the sensed analog signal into radar frame information Ri, which is a digital signal. The radar sensor 312 may measure the distance and direction of the object based on the time of the reflected electromagnetic wave. The radar sensor 312 may detect an object existing in all directions within a detection range by radiating electromagnetic waves in all directions of the periphery.

라이다(Lidar) 센서(313)는 주변부에 전자파를 방사하고, 반사된 전자파를 감지한다. 라이다 센서(313)는 마이크로파보다 짧은 파장을 갖는 레이저를 방사할 수 있다. 라이다 센서(313)는 반사된 레이저에 근거하여 라이다 프레임 정보(Li)를 생성한다. 라이다 센서(313)는 감지된 아날로그 신호를 디지털 신호인 라이다 프레임 정보(Li)로 변환하기 위한 아날로그-디지털 컨버터를 포함할 수 있다. 라이다 센서(313)는 반사된 전자파의 시간에 근거하여 객체의 거리 및 방향을 측정할 수 있다. 라이다 센서(313)는 레이다 센서(312)에 비하여 짧은 파장의 전자파를 이용하므로, 거리 측정의 정밀도, 분해능, 및 신호 대 잡음 비 등을 개선할 수 있다. 다만, 라이다 센서(313)는 레이다 센서(312)에 비하여 작은 감지 범위를 갖는다.The lidar sensor 313 emits electromagnetic waves to the periphery and detects the reflected electromagnetic waves. The lidar sensor 313 may emit a laser having a wavelength shorter than a microwave. The lidar sensor 313 generates lidar frame information Li based on the reflected laser. The lidar sensor 313 may include an analog-to-digital converter for converting the sensed analog signal into the digital signal, which is the lidar frame information Li. The lidar sensor 313 may measure the distance and direction of the object based on the time of the reflected electromagnetic wave. Since the lidar sensor 313 uses an electromagnetic wave having a shorter wavelength than the radar sensor 312 , precision, resolution, and signal-to-noise ratio of distance measurement may be improved. However, the lidar sensor 313 has a smaller detection range than the radar sensor 312 .

영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)는 객체 인식 장치(320)에 제공된다. 센서부(310)는 프레임 단위로 영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)를 생성한다. 객체 인식 장치(320)는 영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)에 근거하여 프레임 단위로 객체를 인식한다. 프레임 단위의 객체 인식을 위하여, 센서부(310)는 영상 프레임 정보(Ci), 레이다 프레임 정보(Ri), 및 라이다 프레임 정보(Li)의 동기화를 위한 센서 동기화부를 더 포함할 수 있다.The image frame information Ci, the radar frame information Ri, and the lidar frame information Li are provided to the object recognition apparatus 320 . The sensor unit 310 generates image frame information Ci, radar frame information Ri, and lidar frame information Li in units of frames. The object recognition apparatus 320 recognizes an object in units of frames based on the image frame information Ci, the radar frame information Ri, and the lidar frame information Li. For frame unit object recognition, the sensor unit 310 may further include a sensor synchronizer for synchronizing the image frame information Ci, the radar frame information Ri, and the lidar frame information Li.

센서부(310)는 주변부의 객체 인식의 정확성, 안정성, 신뢰성을 확보하기 위하여 다양한 종류의 센서들을 포함할 수 있다. 예를 들어, 카메라 센서(311)에 의한 영상 프레임 정보(Ci)를 이용하여 객체의 형상 및 종류 등이 인식될 수 있다. 레이다 센서(312) 및 라이다 센서(313)를 이용하여 객체의 위치 및 속도가 정교하고 다각적으로 인식될 수 있다.The sensor unit 310 may include various types of sensors in order to secure the accuracy, stability, and reliability of object recognition in the surrounding area. For example, the shape and type of the object may be recognized using the image frame information Ci by the camera sensor 311 . By using the radar sensor 312 and the lidar sensor 313 , the position and speed of the object may be recognized in a sophisticated and multifaceted manner.

도 6 내지 도 8은 본 발명의 실시예에 따른 객체들의 우선순위 정보를 생성하는 과정을 설명하기 위한 도면이다. 도 6 및 도 7은 3차선 도로를 주행하는 차량들을 도시한 평면도이다. 도 8은 3차선 도로 및 교차로를 주행하는 차량들을 도시한 평면도이다. 도 5 내지 도 7을 참조하면, 본 발명의 객체 인식 장치(100, 220, 320) 또는 자율 주행 시스템(200, 300)이 탑재된 사용자의 차량은 V0으로 정의된다. 도 6 및 도 7에서 차량(V0)은 제1 내지 제5 객체들(V1~V5)을 인지한다. 도 8에서 차량(V0)은 제1 내지 제6 객체들(V1~V6)을 인지한다. 6 to 8 are diagrams for explaining a process of generating priority information of objects according to an embodiment of the present invention. 6 and 7 are plan views illustrating vehicles traveling on a three-lane road. 8 is a plan view illustrating vehicles traveling on a three-lane road and an intersection. 5 to 7 , a vehicle of a user in which the object recognition apparatuses 100 , 220 , 320 or the autonomous driving systems 200 and 300 of the present invention are mounted is defined as V0. 6 and 7 , the vehicle V0 recognizes the first to fifth objects V1 to V5. In FIG. 8 , the vehicle V0 recognizes the first to sixth objects V1 to V6 .

도 6 내지 도 8에 제1 내지 제6 객체들(V1~V6)에 대한 우선순위 정보(Pri)가 표시된다. 도 6 및 도 7은 제1 내지 제5 우선순위 정보(Pr1~Pr5)가 표시되고, 도 8은 제1 내지 제6 우선순위 정보(Pr1~Pr6)가 표시된다. 제1 우선순위 정보(Pr1)는 가장 선 순위 정보로 이해될 것이고, 제5 우선순위 정보(Pr5) 또는 제6 우선순위 정보(Pr6)로 진행할수록 후 순위 정보로 이해될 것이다. 도 6 내지 도 8에서의 화살표는 차량 또는 객체들 각각의 이동 속도 및 방향을 나타내는 것으로 이해될 것이다. 이러한 우선순위 정보는 도 1의 객체 우선순위 연산기(140)에서 생성될 수 있다.Priority information Pri for the first to sixth objects V1 to V6 is displayed in FIGS. 6 to 8 . 6 and 7 display first to fifth priority information Pr1 to Pr5, and FIG. 8 displays first to sixth priority information Pr1 to Pr6. The first priority information Pr1 will be understood as the highest priority information, and as the fifth priority information Pr5 or the sixth priority information Pr6 progresses, it will be understood as the lowest priority information. It will be understood that the arrows in FIGS. 6 to 8 indicate the moving speed and direction of each of the vehicles or objects. Such priority information may be generated by the object priority calculator 140 of FIG. 1 .

도 6을 참조하면, 차량(V0)의 전방에 제1 내지 제5 객체들(V1~V5)이 이동한다. 제1 객체(V1) 및 제4 객체(V4)는 차량(V0)과 동일 차선에서 주행하고 있다. 제3 객체(V3)는 차량(V0)의 왼쪽 차선에서 주행하고 있다. 제2 객체(V2) 및 제5 객체(V5)는 오른쪽 차선에서 주행하고 있다. 제1 객체(V1)는 제1 우선순위 정보(Pr1)에 대응한다. 제2 객체(V2)는 제2 우선순위 정보(Pr2)에 대응한다. 제3 객체(V3)는 제3 우선순위 정보(Pr3)에 대응한다. 제4 객체(V4)는 제4 우선순위 정보(Pr4)에 대응한다. 제5 객체(V5)는 제5 우선순위 정보(Pr5)에 대응한다.Referring to FIG. 6 , the first to fifth objects V1 to V5 move in front of the vehicle V0. The first object V1 and the fourth object V4 are traveling in the same lane as the vehicle V0. The third object V3 is driving in the left lane of the vehicle V0. The second object V2 and the fifth object V5 are driving in the right lane. The first object V1 corresponds to the first priority information Pr1. The second object V2 corresponds to the second priority information Pr2. The third object V3 corresponds to the third priority information Pr3. The fourth object V4 corresponds to the fourth priority information Pr4. The fifth object V5 corresponds to the fifth priority information Pr5.

제1 객체(V1)는 제1 내지 제5 객체들(V1~V5) 중 차량(V0)과 가장 가까운 거리를 갖는다. 따라서, 제1 객체(V1)는 차량(V0)과 가장 높은 충돌 가능성을 갖고, 제1 우선순위 정보(Pr1)가 제1 객체(V1)에 부여된다. 제2 객체(V2) 및 제3 객체(V3)는 제1 객체(V1) 다음으로 가장 가까운 거리를 갖는다. 다만, 제3 객체(V3)는 제2 객체(V2)보다 높은 이동 속도를 갖는다. 즉, 다음 프레임에서 제3 객체(V3)는 제2 객체(V2)보다 차량(V0)으로부터 멀리 떨어지게 된다. 그 결과, 제2 객체(V2)와 차량(V0)의 충돌 가능성은 제3 객체(V3)와 차량(V0)의 충돌 가능성보다 높다. 따라서, 제2 객체(V2)에 제2 우선순위 정보(Pr2)가 부여되고, 제3 객체(V3)에 제3 우선순위 정보(Pr3)가 부여된다. 충돌 가능성의 관점에서, 제4 객체(V4)에 제4 우선순위 정보(Pr4)가 부여되고, 제5 객체(V5)에 제5 우선순위 정보(Pr5)가 부여된다.The first object V1 has the closest distance to the vehicle V0 among the first to fifth objects V1 to V5 . Accordingly, the first object V1 has the highest probability of collision with the vehicle V0 , and the first priority information Pr1 is assigned to the first object V1 . The second object V2 and the third object V3 have the closest distance after the first object V1. However, the third object V3 has a higher moving speed than the second object V2 . That is, in the next frame, the third object V3 is farther away from the vehicle V0 than the second object V2. As a result, the collision probability between the second object V2 and the vehicle V0 is higher than the collision probability between the third object V3 and the vehicle V0. Accordingly, the second priority information Pr2 is provided to the second object V2, and the third priority information Pr3 is provided to the third object V3. In view of the possibility of collision, the fourth priority information Pr4 is given to the fourth object V4 , and the fifth priority information Pr5 is given to the fifth object V5 .

도 7을 참조하면, 차량(V0)은 가운데 차선에서 왼쪽 차선으로 진입하고 있다. 왼쪽 차선으로의 진입은 도 1의 주행 경로 분석부(130)에 의하여 생성된 주행 경로 정보(Di)에 근거하여 차량 제어 장치(230, 330)가 차량(V0)을 제어한 결과일 수 있다. 차량(V0)의 주행 경로 변경에 따라, 제1 내지 제5 객체(V1~V5)의 충돌 가능성은 변화한다. 차량(V0)은 제3 객체(V3)가 주행하는 차선으로 이동하므로, 제3 객체(V3)은 차량(V0)과 가장 높은 충돌 가능성을 갖는다. 따라서, 제3 객체(V3)에 제1 우선순위 정보(Pr1)가 부여된다. 그 다음 높은 충돌 가능성을 갖는 제1 객체(V1)에 제2 우선순위 정보(Pr2)가 부여된다. 순차적으로, 제2 객체(V2)에 제3 우선순위 정보(Pr3)가 부여되고, 제4 객체(V4)에 제4 우선순위 정보(Pr4)가 부여되고, 제5 객체(V5)에 제5 우선순위 정보(Pr5)가 부여된다.Referring to FIG. 7 , the vehicle V0 is entering the left lane from the center lane. The entry into the left lane may be a result of controlling the vehicle V0 by the vehicle control devices 230 and 330 based on the driving path information Di generated by the driving path analyzing unit 130 of FIG. 1 . According to the change of the driving path of the vehicle V0, the probability of collision of the first to fifth objects V1 to V5 is changed. Since the vehicle V0 moves in the lane in which the third object V3 travels, the third object V3 has the highest probability of collision with the vehicle V0. Accordingly, the first priority information Pr1 is given to the third object V3. Then, the second priority information Pr2 is given to the first object V1 having a high collision probability. Sequentially, the third priority information Pr3 is given to the second object V2, the fourth priority information Pr4 is given to the fourth object V4, and the fifth priority information Pr4 is given to the fifth object V5. Priority information Pr5 is given.

도 8을 참조하면, 차량(V0)은 가운데 차선에서 오른쪽 차선으로 진입하고 있다. 오른쪽 차선으로의 진입은 도 1의 주행 경로 분석부(130)에 의하여 생성된 주행 경로 정보(Di)에 근거하여 차량 제어 장치(230, 330)가 차량(V0)를 제어한 결과일 수 있다. 차량(V0)은 제2 객체(V2)가 주행하는 차선으로 이동하므로, 제2 객체(V2)는 차량(V0)과 가장 높은 충돌 가능성을 갖는다. 따라서, 제2 객체(V2)에 제1 우선순위 정보(Pr1)가 부여된다. 그 다음 높은 충돌 가능성을 갖는 제1 객체(V1)에 제2 우선순위 정보(Pr2)가 부여된다.Referring to FIG. 8 , the vehicle V0 is entering the right lane from the center lane. The entry into the right lane may be a result of controlling the vehicle V0 by the vehicle control devices 230 and 330 based on the driving path information Di generated by the driving path analyzing unit 130 of FIG. 1 . Since the vehicle V0 moves in the lane in which the second object V2 travels, the second object V2 has the highest probability of collision with the vehicle V0. Accordingly, the first priority information Pr1 is given to the second object V2. Then, the second priority information Pr2 is given to the first object V1 having a high collision probability.

도 8의 도로는 교차로를 포함한다. 교차로는 오른쪽 차선과 연결된다. 제6 객체(V6)는 교차로를 주행하고 오른쪽 차선에 진입한다. 차량(V0)은 객체 인식 범위 내에 새로 진입한 제6 객체(V6)를 인식한다. 센서부(110, 210)는 제6 객체(V6)를 감지하고, 객체 인식 장치(120, 220)는 제6 객체(V6)를 고려하여 객체 프레임 정보(Oi) 및 객체 추적 정보(Ti)를 생성한다. 제6 객체(V6)과 차량(V0)은 동일한 차선에서의 주행이 예상된다. 제6 객체(V6)는 제1 객체(V1) 및 제2 객체(V2) 다음으로 차량(V0)과 높은 충돌 가능성을 가질 수 있다. 따라서, 제6 객체(V6)는 제3 우선순위 정보(Pr3)가 부여된다. 그 외에, 객체와 차량(V0) 사이의 거리 차이 및 속도 차이에 근거하여 제3 내지 제5 객체(V3~V5)에 우선순위 정보가 부여될 수 있다.The road in FIG. 8 includes an intersection. The intersection connects with the right lane. The sixth object V6 drives through the intersection and enters the right lane. The vehicle V0 recognizes the sixth object V6 newly entered within the object recognition range. The sensor units 110 and 210 detect the sixth object V6, and the object recognition apparatuses 120 and 220 calculate the object frame information Oi and the object tracking information Ti in consideration of the sixth object V6. create The sixth object V6 and the vehicle V0 are expected to travel in the same lane. The sixth object V6 may have a high probability of colliding with the vehicle V0 after the first object V1 and the second object V2. Accordingly, the sixth object V6 is given the third priority information Pr3. In addition, priority information may be assigned to the third to fifth objects V3 to V5 based on a distance difference and a speed difference between the object and the vehicle V0.

도 9 내지 도 12는 본 발명의 실시예에 따른 객체 인식 범위 및 연산 모드의 변화를 설명하기 위한 도면이다. 도 9 내지 도 12의 객체들의 위치 및 차량(V0)의 이동은 도 7과 동일하다. 즉, 제1 내지 제5 객체들(V1~V5)에 도 7과 동일한 우선순위 정보가 부여된다. 제3 객체(V3)에 가장 선 순위의 우선순위 정보인 제1 우선순위 정보(Pr1)가 부여된다. 제5 객체(V5)에 가장 후 순위의 우선순위 정보인 제5 우선순위 정보(Pr5)가 부여된다. 제1 내지 제5 우선순위 정보들(Pr1~Pr5)은 도 4의 객체 우선순위 연산기(224)에서 생성될 수 있다.9 to 12 are diagrams for explaining changes in the object recognition range and operation mode according to an embodiment of the present invention. The positions of the objects of FIGS. 9 to 12 and the movement of the vehicle V0 are the same as those of FIG. That is, the same priority information as in FIG. 7 is given to the first to fifth objects V1 to V5. First priority information Pr1, which is the highest priority priority information, is given to the third object V3. The fifth object V5 is given fifth priority information Pr5, which is the lowest priority priority information. The first to fifth priority information Pr1 to Pr5 may be generated by the object priority operator 224 of FIG. 4 .

도 9 내지 도 12를 참조하면, 객체 인식 범위는 제1 영역(AR1), 제2 영역(AR2), 및 제3 영역(AR3)으로 구분된다. 제1 영역(AR1)은 고연산 모드로 동작하는 객체 인식 범위로 정의된다. 제2 영역(AR2)은 저연산 모드로 동작하는 객체 인식 범위로 정의된다. 제3 영역(AR3)은 스킵 모드로 동작하는 객체 인식 범위로 정의된다. 설명의 편의상, 제1 영역(AR1)에 속하는 객체들은 실선으로 표시된다. 제2 영역(AR2)에 속하는 객체들은 점선으로 표시된다. 제3 영역(AR3)은 빗금으로 표시된다. 9 to 12 , the object recognition range is divided into a first area AR1 , a second area AR2 , and a third area AR3 . The first area AR1 is defined as an object recognition range operating in a high computation mode. The second area AR2 is defined as an object recognition range operating in a low-computational mode. The third area AR3 is defined as an object recognition range operating in a skip mode. For convenience of description, objects belonging to the first area AR1 are indicated by solid lines. Objects belonging to the second area AR2 are indicated by dotted lines. The third area AR3 is indicated by hatching.

객체 인식 범위는 제1 영역(AR1), 제2 영역(AR2), 또는 제3 영역(AR3)이 혼재되어 제공될 수 있다. 제1 영역(AR1)에 대응되는 정보들은 도 2의 제1 내지 제n 특징 추출 고연산기들(H1~Hn)에 의하여 처리될 수 있다. 제2 영역(AR2)에 대응되는 정보들은 도 2의 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 의하여 처리될 수 있다. 제3 영역(AR3)에 대응되는 정보들은 제1 내지 제n 특징 추출 고연산기들(H1~Hn) 또는 제1 내지 제n 특징 추출 저연산기들(L1~Ln)에 의한 연산 처리 없이 통과될 수 있다. The object recognition range may be provided in a mixture of the first area AR1 , the second area AR2 , or the third area AR3 . Information corresponding to the first region AR1 may be processed by the first to nth feature extraction high operators H1 to Hn of FIG. 2 . Information corresponding to the second region AR2 may be processed by the first to nth feature extraction low operators L1 to Ln of FIG. 2 . Information corresponding to the third region AR3 may be passed without arithmetic processing by the first to nth feature extraction high operators H1 to Hn or the first to nth feature extraction low operators L1 to Ln. have.

도 9 내지 도 12에서, 객체 인식 범위의 변경은 표 1의 기준에 따른 연산 모드 지시자(Ki)에 근거한다. 연산 모드 지시자(Ki)는 도 1의 연산 모드 지시자 연산기(170)에서 생성될 수 있다. 도 9 내지 도 12의 객체 인식 범위는 도 1의 모드 제어부(180)의 제어에 따라 조정되는 객체 프레임 정보 생성부(110)의 연산량에 의존한다. 즉, 차량(V0)은 동일한 객체 인식 범위에 속하는 객체들을 동일한 연산 모드에 따라 인식한다.9 to 12 , the change of the object recognition range is based on the operation mode indicator Ki according to the criteria of Table 1. The operation mode indicator Ki may be generated by the operation mode indicator operator 170 of FIG. 1 . The object recognition range of FIGS. 9 to 12 depends on the amount of computation of the object frame information generator 110 adjusted under the control of the mode controller 180 of FIG. 1 . That is, the vehicle V0 recognizes objects belonging to the same object recognition range according to the same operation mode.

도 9를 참조하면, 제1 내지 제4 객체들(V1~V4)은 제1 영역(AR1)에 속하고, 제5 객체(V5)는 제2 영역(AR2)에 속한다. 예를 들어, 이전 프레임에서 제1 내지 제5 객체들(V1~V5)은 모두 고연산 모드로 인식될 수 있다. 이 경우, 이전 프레임에서 제1 내지 제5 객체들(V1~V5)은 모두 제1 영역(AR1)에 속한다. 도 9는 연산 모드 지시자(Ki)가 -1인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 감소하거나, 유지될 수 있다.Referring to FIG. 9 , the first to fourth objects V1 to V4 belong to the first area AR1 , and the fifth object V5 belongs to the second area AR2 . For example, all of the first to fifth objects V1 to V5 in the previous frame may be recognized as the high computation mode. In this case, all of the first to fifth objects V1 to V5 in the previous frame belong to the first area AR1. 9 may be a case in which the operation mode indicator Ki is -1. That is, the resource occupancy state is Full, and frame complexity can be reduced or maintained compared to the previous frame.

객체 인식 장치(100, 220, 320)는 이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체 중 가장 후 순위의 우선순위 정보를 갖는 객체에 대하여 저연산 모드로 연산한다. 가장 후 순위의 우선순위 정보가 부여된 객체는 제5 우선순위 정보(Pr5)가 부여된 제5 객체(V5)이다. 제5 객체(V5)는 인식된 다른 객체들보다 작은 충돌 가능성을 갖는다. 모드 제어부(228)는 제5 객체(V5)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 저연산 모드로 객체를 인식하는 제2 영역(AR2)을 생성한다.The object recognition apparatuses 100 , 220 , and 320 operate in a low-computational mode on an object having the latest priority information among objects for which the object frame information Oi is generated in the high-computational mode in the previous frame. The object to which the lowest priority priority information is assigned is the fifth object V5 to which the fifth priority information Pr5 is assigned. The fifth object V5 has a smaller collision probability than other recognized objects. The mode control unit 228 changes the mode control signal Mi corresponding to the fifth object V5 into a low-computational mode control signal. The object recognition apparatuses 100 , 220 , and 320 generate a second area AR2 for recognizing an object in a low-computational mode.

도 10을 참조하면, 제1 내지 제3 객체들(V1~V3)은 제1 영역(AR1)에 속하고, 제4 및 제5 객체들(V4~V5)은 제2 영역(AR2)에 속한다. 제1 내지 제3 객체들(V1~V3)은 제4 및 제5 객체들(V4~V5)에 비하여 높은 연산량에 의하여 인식된다. 이전 프레임이 도 9에 대응되는 경우, 도 10은 연산 모드 지시자(Ki)가 -1인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 감소하거나, 유지될 수 있다. Referring to FIG. 10 , first to third objects V1 to V3 belong to a first area AR1 , and fourth and fifth objects V4 to V5 belong to a second area AR2 . . The first to third objects V1 to V3 are recognized by a higher computational amount than the fourth and fifth objects V4 to V5. When the previous frame corresponds to FIG. 9 , in FIG. 10 , the operation mode indicator Ki is -1. That is, the resource occupancy state is Full, and frame complexity can be reduced or maintained compared to the previous frame.

이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체는 제1 내지 제4 객체들(V1~V4)이다. 그 중 가장 후 순위의 우선순위 정보가 부여된 객체는 제4 우선순위 정보(Pr4)가 부여된 제4 객체(V4)이다. 모드 제어부(228)는 제4 객체(V4)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 제4 객체(V4)를 포함하도록 제2 영역(AR2)을 확장한다. 리소스 점유 상태가 Full이므로, 객체 인식 장치(100, 220, 320)는 저연산 모드로 객체를 인식하는 범위를 확장한다.The objects for which the object frame information Oi is generated in the high computation mode in the previous frame are the first to fourth objects V1 to V4. Among them, the object to which the lowest priority information is given is the fourth object V4 to which the fourth priority information Pr4 is assigned. The mode controller 228 changes the mode control signal Mi corresponding to the fourth object V4 into a low-computational mode control signal. The object recognition apparatuses 100 , 220 , and 320 extend the second area AR2 to include the fourth object V4 . Since the resource occupancy state is Full, the object recognition apparatuses 100 , 220 , and 320 extend the range of recognizing the object in the low-computational mode.

도 11을 참조하면, 제1 우선순위 정보(Pr1)가 부여된 제3 객체(V3)는 제1 영역(AR1)에 속한다. 제1 객체(V1), 제2 객체(V2), 제4 객체(V4), 및 제5 객체(V5)는 제2 영역(AR2)에 속한다. 이전 프레임이 도 10에 대응되는 경우, 도 11은 연산 모드 지시자(Ki)가 -2인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 증가할 수 있다. 리소스 점유 상태가 Full이므로, 신속한 연산 처리가 어렵다. 추가적으로, 프레임 복잡도가 증가하므로, 이전 프레임에 비하여 연산량이 증가될 수 있다. 따라서, 연산 모드 지시자(Ki)가 -1인 경우에 비하여 연산량을 크게 낮출 필요성이 제기된다.Referring to FIG. 11 , the third object V3 to which the first priority information Pr1 is assigned belongs to the first area AR1 . The first object V1 , the second object V2 , the fourth object V4 , and the fifth object V5 belong to the second area AR2 . When the previous frame corresponds to FIG. 10 , FIG. 11 may be a case where the operation mode indicator Ki is -2. That is, the resource occupancy state is Full, and frame complexity may increase compared to the previous frame. Since the resource occupancy state is Full, it is difficult to process quickly. Additionally, since frame complexity increases, the amount of computation may be increased compared to the previous frame. Accordingly, there is a need to significantly lower the calculation amount compared to the case where the operation mode indicator Ki is -1.

이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체는 제1 내지 제3 객체들(V1~V3)이다. 그 중 가장 후 순위의 우선순위 정보가 부여된 객체는 제3 우선순위 정보(Pr3)가 부여된 제2 객체(V2)이다. 그 다음 순위의 우선순위 정보가 부여된 객체는 제2 우선순위 정보(Pr2)가 부여된 제1 객체(V1)이다. 모드 제어부(180)는 제1 객체(V1) 및 제2 객체(V2)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 제1 객체(V1) 및 제2 객체(V2)를 포함하도록 제2 영역(AR2)을 확장한다. 프레임 복잡도가 증가하므로, 저연산 모드로 변경되는 객체들의 개수가 증가한다.The objects for which the object frame information Oi is generated in the high computation mode in the previous frame are the first to third objects V1 to V3. Among them, the object to which the lowest priority information is given is the second object V2 to which the third priority information Pr3 is assigned. The object to which the priority information of the next priority is assigned is the first object V1 to which the second priority information Pr2 is assigned. The mode controller 180 changes the mode control signal Mi corresponding to the first object V1 and the second object V2 into a low-computational mode control signal. The object recognition apparatuses 100 , 220 , and 320 extend the second area AR2 to include the first object V1 and the second object V2 . As frame complexity increases, the number of objects changed to the low-computational mode increases.

도 12를 참조하면, 제1 영역(AR1)에 속하는 객체는 존재하지 않는다. 제1 내지 제4 객체들(V1~V4)은 제2 영역(AR2)에 속한다. 제5 객체(V5)는 제3 영역(AR3)에 속한다. 이전 프레임이 도 10에 대응되는 경우, 도 12는 연산 모드 지시자(Ki)가 -2인 경우일 수 있다. 즉, 리소스 점유 상태는 Full이고, 프레임 복잡도가 이전 프레임에 비하여 증가할 수 있다. 연산 모드 지시자(Ki)가 -2인 경우, 2개의 객체에 대한 연산 모드의 변경이 진행될 수 있다.Referring to FIG. 12 , an object belonging to the first area AR1 does not exist. The first to fourth objects V1 to V4 belong to the second area AR2 . The fifth object V5 belongs to the third area AR3 . When the previous frame corresponds to FIG. 10 , FIG. 12 may be a case where the operation mode indicator Ki is -2. That is, the resource occupancy state is Full, and frame complexity may increase compared to the previous frame. When the operation mode indicator Ki is -2, the operation mode change for two objects may proceed.

이전 프레임에서 고연산 모드로 객체 프레임 정보(Oi)가 생성된 객체는 제3 객체(V3)로 유일하다. 모드 제어부(180)는 제3 객체(V3)에 대응되는 모드 제어 신호(Mi)를 저연산 모드 제어 신호로 변경한다. 객체 인식 장치(100, 220, 320)는 제3 객체(V3)를 포함하도록 제2 영역(AR2)을 확장한다. 인식되는 모든 객체들이 저연산 모드로 동작하고, 리소스 점유 상태가 Full인 경우, 후 순위의 우선순위 정보가 부여된 객체는 스킵 모드로 동작하고, 객체 인식을 위한 연산을 수행하지 않는다.The object in which the object frame information Oi is generated in the high computation mode in the previous frame is unique as the third object V3. The mode controller 180 changes the mode control signal Mi corresponding to the third object V3 into a low-computational mode control signal. The object recognition apparatuses 100 , 220 , and 320 extend the second area AR2 to include the third object V3 . When all recognized objects operate in the low-computational mode and the resource occupancy state is Full, the object to which the lower priority information is assigned operates in the skip mode and no operation for object recognition is performed.

저연산 모드로 객체 프레임 정보(Oi)가 생성된 객체들 중 가장 후 순위의 우선순위 정보가 부여된 객체는 제5 객체(V5)이다. 모드 제어부(180)는 제5 객체(V5)에 대응되는 모드 제어 신호(Mi)를 스킵 모드 제어 신호로 변경한다. 즉, 객체 프레임 정보 생성부(110)는 제5 객체(V5)에 대한 객체 프레임 정보(Oi)를 생성하지 않는다. 프레임 분석부(120)는 제5 객체(V5)에 대한 객체 추적 정보(Ti)를 생성하지 않는다. 객체 인식 장치(100, 220, 320)는 스킵 모드로 객체를 인식하는 제3 영역(AR3)을 생성한다.Among the objects for which the object frame information Oi is generated in the low-computational mode, the object to which the lowest priority priority information is given is the fifth object V5. The mode controller 180 changes the mode control signal Mi corresponding to the fifth object V5 into a skip mode control signal. That is, the object frame information generating unit 110 does not generate the object frame information Oi for the fifth object V5. The frame analyzer 120 does not generate object tracking information Ti for the fifth object V5. The object recognition apparatuses 100 , 220 , and 320 generate a third area AR3 for recognizing an object in the skip mode.

도 13은 본 발명의 실시예에 따른 객체 인식 방법의 순서도이다. 도 13의 객체 인식 방법은 도 1의 객체 인식 장치(100), 도 3의 객체 인식 장치(220), 또는 도 4의 객체 인식 장치(320)에서 수행된다. 설명의 편의상, 도 13의 객체 인식 방법은 도 1의 객체 인식 장치(100)에서 수행되는 것으로 후술한다. 13 is a flowchart of an object recognition method according to an embodiment of the present invention. The object recognition method of FIG. 13 is performed by the object recognition apparatus 100 of FIG. 1 , the object recognition apparatus 220 of FIG. 3 , or the object recognition apparatus 320 of FIG. 4 . For convenience of description, the object recognition method of FIG. 13 will be described later as being performed by the object recognition apparatus 100 of FIG. 1 .

S100 단계에서, 객체 인식 장치(100)는 객체 프레임 정보(Oi)를 생성한다. S100 단계는 객체 프레임 정보 생성부(110)에서 수행될 수 있다. 객체 인식 장치(100)는 센싱 정보(Si)를 수신한다. 객체 인식 장치(100) 센싱 정보(Si)에 근거하여 복수의 객체를 인식할 수 있다. 객체 인식 장치(100)는 복수의 객체 각각에 대응되는 객체 프레임 정보(Oi)를 생성할 수 있다. 객체 인식 장치(100)는 고연산 모드 또는 저연산 모드로 복수의 객체를 인식하여 객체 프레임 정보(Oi)를 생성할 수 있다.In step S100 , the object recognition apparatus 100 generates object frame information Oi. Step S100 may be performed by the object frame information generating unit 110 . The object recognition apparatus 100 receives sensing information Si. The object recognition apparatus 100 may recognize a plurality of objects based on the sensing information Si. The object recognition apparatus 100 may generate object frame information Oi corresponding to each of a plurality of objects. The object recognition apparatus 100 may generate object frame information Oi by recognizing a plurality of objects in a high-computational mode or a low-computational mode.

S200 단계에서, 객체 인식 장치(100)는 객체 추적 정보(Ti)를 생성한다. S200 단계는 프레임 분석부(120)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 프레임 정보(Oi)에 근거하여 다음 프레임에 대한 복수의 객체의 예상 위치 또는 예상 속도를 산출한다. 객체 인식 장치(100)는 산출된 복수의 객체의 예상 위치 또는 예상 속도에 근거하여 객체 추적 정보(Ti)를 생성한다. S300 단계에서, 객체 인식 장치(100)는 주행 경로 정보(Di)를 생성한다. S300 단계는 주행 경로 분석부(130)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 추적 정보(Ti)에 근거하여 다음 프레임에 대한 주행 경로 정보(Di)를 생성한다.In step S200 , the object recognition apparatus 100 generates object tracking information Ti. Step S200 may be performed by the frame analyzer 120 . The object recognition apparatus 100 calculates the predicted positions or predicted velocities of a plurality of objects for the next frame based on the object frame information Oi. The object recognition apparatus 100 generates object tracking information Ti based on the calculated estimated positions or estimated speeds of the plurality of objects. In step S300 , the object recognition apparatus 100 generates driving route information Di. Step S300 may be performed by the driving path analysis unit 130 . The object recognition apparatus 100 generates driving path information Di for the next frame based on the object tracking information Ti.

S400 단계에서, 객체 인식 장치(100)는 객체에 대한 우선순위 정보(Pri)를 생성한다. S400 단계는 객체 우선순위 연산기(140)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 객체와 차량의 충돌 가능성을 연산할 수 있다. 객체 인식 장치(100)가 복수의 객체를 인지한 경우, 각각의 객체와 차량 사이의 충돌 가능성에 근거하여 객체 우선순위 연산기(140)는 우선순위 정보(Pri)를 생성할 수 있다. 충돌 가능성이 높은 객체는 선순위의 우선순위 정보가 부여되고, 충돌 가능성이 낮은 객체는 후순위의 우선순위 정보가 부여될 수 있다.In step S400 , the object recognition apparatus 100 generates priority information Pri on the object. Step S400 may be performed by the object priority operator 140 . The object recognition apparatus 100 may calculate the possibility of collision between the object and the vehicle based on the object tracking information Ti and the driving path information Di. When the object recognition apparatus 100 recognizes a plurality of objects, the object priority calculator 140 may generate priority information Pri based on the possibility of collision between each object and the vehicle. An object having a high probability of collision may be given priority information of a higher priority, and an object having a low probability of collision may be given priority information of a lower priority.

S500 단계에서, 객체 인식 장치(100)는 프레임 복잡도를 산출한다. S500 단계는 프레임 복잡도 연산기(150)에서 수행될 수 있다. 객체 인식 장치(100)는 객체 추적 정보(Ti) 및 주행 경로 정보(Di)에 근거하여 프레임 복잡도를 생성할 수 있다. 예를 들어, 객체 인식 장치(100)는 객체 추적 정보(Ti)에 근거하여 객체 복잡도를 산출할 수 있다. 객체 인식 장치(100)는 주행 경로 정보(Di)에 근거하여 경로 복잡도를 산출할 수 있다. 객체 인식 장치(100)는 객체 복잡도 및 경로 복잡도를 합산하여 프레임 복잡도를 산출할 수 있다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 프레임 복잡도 정보(FCi)를 생성할 수 있다.In step S500 , the object recognition apparatus 100 calculates frame complexity. Step S500 may be performed by the frame complexity calculator 150 . The object recognition apparatus 100 may generate frame complexity based on the object tracking information Ti and the driving path information Di. For example, the object recognition apparatus 100 may calculate object complexity based on the object tracking information Ti. The object recognition apparatus 100 may calculate the path complexity based on the driving path information Di. The object recognition apparatus 100 may calculate frame complexity by summing object complexity and path complexity. The object recognition apparatus 100 may generate frame complexity information FCi based on the frame complexity.

S600 단계에서, 객체 인식 장치(100)는 리소스 점유 상태를 검출한다. S600 단계는 리소스 검출기(160)에서 수행될 수 있다. 객체 인식 장치(100)는 도 3의 프로세서(240) 또는 메모리(250)의 점유율을 감지한다. 객체 인식 장치(100)는 프로세서(240) 또는 메모리(250)의 점유율에 근거하여 리소스 정보(Resi)를 생성할 수 있다.In step S600 , the object recognition apparatus 100 detects a resource occupancy state. Step S600 may be performed in the resource detector 160 . The object recognition apparatus 100 detects the occupancy of the processor 240 or the memory 250 of FIG. 3 . The object recognition apparatus 100 may generate resource information Resi based on the occupancy of the processor 240 or the memory 250 .

S700 단계에서, 객체 인식 장치(100)는 객체 프레임 정보의 연산을 제어하고, 객체 인식 범위를 변경한다. 객체 프레임 정보의 연산 제어는 모드 제어부(180)에서 수행될 수 있다. 객체 인식 범위의 변경은 객체 프레임 정보 생성부(110)에서 수행될 수 있다. 객체 인식 장치(100)는 우선순위 정보(Pri), 프레임 복잡도 정보(FCi), 및 리소스 정보(Resi)에 근거하여 객체 프레임 정보(Oi)의 생성을 위한 연산량을 제어한다. S700 단계에서 객체 프레임 정보(Oi)의 연산을 제어하기 위하여, 객체 인식 장치(100)는 연산 모드 지시자(Ki)를 생성할 수 있다. 연산 모드 지시자(Ki)는 프레임 복잡도 및 리소스 점유 상태에 근거하여 결정될 수 있다. 객체 인식 장치(100)는 연산 모드 지시자(Ki)에 근거하여 객체 프레임 정보 생성부(110)의 연산량을 증가시키거나 감소시킬 수 있다. 객체 인식 장치(100)는 연산 모드 지시자(Ki)에 근거하여 객체 프레임 정보 생성부(110)의 객체 인식 범위를 증가시키거나 감소시킬 수 있다. 객체 인식 장치(100)는 고연산 모드로 인식되는 객체 인식 범위 또는 저연산 모드로 인식되는 객체 인식 범위를 증가 또는 감소시킬 수 있다.In step S700 , the object recognition apparatus 100 controls the operation of object frame information and changes the object recognition range. Operational control of object frame information may be performed by the mode controller 180 . The change of the object recognition range may be performed by the object frame information generator 110 . The object recognition apparatus 100 controls the amount of calculation for generating the object frame information Oi based on the priority information Pri, the frame complexity information FCi, and the resource information Resi. In order to control the operation of the object frame information Oi in step S700, the object recognition apparatus 100 may generate an operation mode indicator Ki. The operation mode indicator Ki may be determined based on frame complexity and resource occupancy state. The object recognition apparatus 100 may increase or decrease the amount of computation of the object frame information generator 110 based on the operation mode indicator Ki. The object recognition apparatus 100 may increase or decrease the object recognition range of the object frame information generator 110 based on the operation mode indicator Ki. The object recognition apparatus 100 may increase or decrease the object recognition range recognized in the high computation mode or the object recognition range recognized in the low computation mode.

S700 단계에서 객체 프레임 정보(Oi)의 연산량은 객체 별로 다르게 결정될 수 있다. 예를 들어, 객체 인식 장치(100)는 선순위의 우선순위 정보(Pri)를 갖는 객체의 연산량을 증가시킬 수 있다. 객체 인식 장치(100)는 후순위의 우선순위 정보(Pri)를 갖는 객체의 연산량을 감소시킬 수 있다. 객체 인식 장치(100)는 객체 별로 고연산 모드, 저연산 모드, 또는 스킵 모드로 동작할 수 있다. 객체 인식 장치(100)는 리소스 점유 상태가 Full 상태인 경우, 연산량을 감소시킬 수 있다. 객체 인식 장치(100)는 리소스 점유 상태가 Not Full 상태인 경우, 연산량을 증가시킬 수 있다.In step S700, the amount of calculation of the object frame information Oi may be determined differently for each object. For example, the object recognition apparatus 100 may increase the amount of computation of the object having the priority information Pri of the priority. The object recognition apparatus 100 may reduce the amount of computation of an object having lower priority information Pri. The object recognition apparatus 100 may operate in a high-computational mode, a low-computational mode, or a skip mode for each object. When the resource occupancy state is the Full state, the object recognition apparatus 100 may reduce the amount of computation. When the resource occupancy state is the Not Full state, the object recognition apparatus 100 may increase the amount of computation.

S800 단계에서, 객체 인식 장치(100)는 객체 인식을 종료하거나, 다음 프레임에 대한 객체 인식을 수행할 수 있다. 객체 인식 장치(100)는 도 3의 프로세서(240)의 제어에 근거하여 객체 인식 종료 여부를 결정할 수 있다. 객체 인식을 종료하는 경우, 객체 인식 장치(100)는 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성하지 않는다. 객체 인식 장치(100)는 구동을 종료할 수 있다. 객체 인식을 종료하지 않는 경우, 객체 인식 장치(100)는 S100 단계를 다시 수행한다. 즉, 객체 인식 장치(100)는 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성한다. 이 경우, 객체 인식 장치(100)는 객체 인식을 종료할 때까지 S100 단계 내지 S700 단계를 프레임마다 반복 수행할 수 있다. In operation S800 , the object recognition apparatus 100 may end object recognition or may perform object recognition for a next frame. The object recognition apparatus 100 may determine whether to terminate object recognition based on the control of the processor 240 of FIG. 3 . When object recognition is terminated, the object recognition apparatus 100 does not generate object frame information Oi for the next frame. The object recognition apparatus 100 may end the operation. If the object recognition is not finished, the object recognition apparatus 100 performs step S100 again. That is, the object recognition apparatus 100 generates object frame information Oi for the next frame. In this case, the object recognition apparatus 100 may repeat steps S100 to S700 for each frame until object recognition is finished.

S800 단계는 자율 주행 시스템(200, 300)의 자율 주행의 종료를 판단하는 단계로 볼 수 있다. 예를 들어, 자율 주행을 종료하는 경우, 자율 주행 시스템(200, 300)은 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성하지 않는다. 자율 주행을 유지하는 경우, 자율 주행 시스템(200, 300)은 S100 단계를 다시 수행한다. 즉, 자율 주행 시스템(200, 300)은 다음 프레임에 대한 객체 프레임 정보(Oi)를 생성한다. 이 경우, 자율 주행 시스템에 포함되는 객체 인식 장치는 자율 주행을 종료할 때까지 S100 단계 내지 S700 단계를 프레임마다 반복 수행할 수 있다.Step S800 may be viewed as a step of determining the end of autonomous driving of the autonomous driving systems 200 and 300 . For example, when autonomous driving is terminated, the autonomous driving systems 200 and 300 do not generate object frame information Oi for the next frame. If autonomous driving is maintained, the autonomous driving systems 200 and 300 perform step S100 again. That is, the autonomous driving systems 200 and 300 generate object frame information Oi for the next frame. In this case, the object recognition apparatus included in the autonomous driving system may repeat steps S100 to S700 for each frame until the autonomous driving is terminated.

도 14는 본 발명의 실시예에 따른 객체 프레임 정보의 연산을 제어하는 방법의 순서도이다. 도 14는 도 13에서 S700 단계를 구체화한 순서도이다. 도 14를 참조하면, 객체 프레임 정보의 연산을 제어하는 방법은 도 1의 모드 제어부(180)에서 수행될 수 있다. 또한, 객체 프레임 정보의 연산을 제어하기 위하여, 도 1의 연산 모드 지시자 연산기(170)를 이용할 수 있다.14 is a flowchart of a method for controlling operation of object frame information according to an embodiment of the present invention. 14 is a flowchart illustrating step S700 in FIG. 13 . Referring to FIG. 14 , a method of controlling the operation of object frame information may be performed by the mode controller 180 of FIG. 1 . In addition, in order to control the operation of object frame information, the operation mode indicator operator 170 of FIG. 1 may be used.

S710 단계에서, 객체 인식 장치(100)는 리소스 점유 상태가 Full 상태인지 판단한다. 리소스 점유 상태가 Full 상태인 경우, 프로세서 또는 메모리가 과부하 상태이므로, 객체 인식 장치(100)는 이전 프레임에서의 객체 프레임 정보(Oi) 생성을 위한 연산량을 유지하기 어려운 것으로 판단한다. 즉, 리소스 점유 상태가 Full 상태인 경우, 객체 인식 장치(100)는 연산량을 감소시키도록 객체 프레임 정보 생성부(110)를 제어한다. 리소스 점유 상태가 Full 상태가 아닌 경우, 객체 인식 장치(100)는 연산량을 증가시키도록 객체 프레임 정보 생성부(110)를 제어한다. 리소스 점유 상태는 연산 모드 지시자(Ki)에 근거하여 판단될 수 있다. 예를 들어, 연산 모드 지시자(Ki)가 음수인 경우, 리소스 점유 상태가 Full 상태인 것으로 인지될 수 있다. 리소스 점유 상태가 Full 상태인 경우, S720 단계가 진행된다. 리소스 점유 상태가 Full 상태가 아닌 경우, S750 단계가 진행된다. In step S710 , the object recognition apparatus 100 determines whether the resource occupancy state is the Full state. When the resource occupancy state is the Full state, since the processor or the memory is overloaded, the object recognition apparatus 100 determines that it is difficult to maintain the amount of computation for generating the object frame information Oi in the previous frame. That is, when the resource occupancy state is the Full state, the object recognition apparatus 100 controls the object frame information generator 110 to reduce the amount of computation. When the resource occupancy state is not the Full state, the object recognition apparatus 100 controls the object frame information generator 110 to increase the amount of computation. The resource occupancy state may be determined based on the operation mode indicator Ki. For example, when the operation mode indicator Ki is a negative number, it may be recognized that the resource occupancy state is the Full state. If the resource occupancy state is the Full state, step S720 proceeds. If the resource occupancy state is not the Full state, step S750 proceeds.

S720 단계에서, 객체 인식 장치(100)는 이전 프레임에서 고연산 모드로 생성된 객체 프레임 정보가 존재하는지 판단한다. 고연산 모드로 생성된 객체 프레임 정보가 존재하는 경우, 고연산 모드에서 저연산 모드로 변경하기 위한 S730 단계가 수행된다. 고연산 모드로 생성된 객체 프레임 정보가 존재하지 않는 경우, 저연산 모드에서 스킵 모드로 변경하기 위한 S740 단계가 수행된다.In step S720 , the object recognition apparatus 100 determines whether object frame information generated in the high computation mode in the previous frame exists. When the object frame information generated in the high computation mode exists, step S730 for changing from the high computation mode to the low computation mode is performed. When the object frame information generated in the high computation mode does not exist, step S740 for changing from the low computation mode to the skip mode is performed.

S730 단계에서, 객체 인식 장치(100)는 이전 프레임에서 고연산 모드로 생성된 객체 프레임 정보 중 후순위의 우선순위 정보를 갖는 객체 프레임 정보를 저연산 모드로 생성하도록 제어한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 저연산 모드로 생성하는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수보다 많을 수 있다.In operation S730, the object recognition apparatus 100 controls to generate object frame information having lower priority information among object frame information generated in the high computation mode in the previous frame in the low computation mode. The object recognition apparatus 100 may determine the number of object frame information generated in the low-computational mode based on the frame complexity. For example, the number of object frame information that is changed to the low-computation mode when the frame complexity increases may be greater than the number of object frame information that is changed to the low-computation mode when the frame complexity decreases.

S740 단계에서, 객체 인식 장치(100)는 이전 프레임에서 저연산 모드로 생성된 객체 프레임 정보 중 후순위의 우선순위 정보를 갖는 객체 프레임 정보의 생성을 차단한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 생성되지 않는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 스킵 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 스킵 모드로 변경하는 객체 프레임 정보의 개수보다 많을 수 있다.In operation S740 , the object recognition apparatus 100 blocks generation of object frame information having lower priority information among object frame information generated in the low computation mode in the previous frame. The object recognition apparatus 100 may determine the number of object frame information that is not generated based on frame complexity. For example, the number of object frame information that is changed to the skip mode when the frame complexity increases may be greater than the number of object frame information that is changed to the skip mode when the frame complexity decreases.

S750 단계에서, 객체 인식 장치(100)는 이전 프레임에서 스킵 모드로 동작하여 생성되지 않은 객체 프레임 정보가 존재하는지 판단한다. 생성이 차단된 객체 프레임 정보가 존재하는 경우, 스킵 모드에서 저연산 모드로 변경하기 위한 S760 단계가 수행된다. 생성이 차단된 객체 프레임 정보가 존재하지 않는 경우, 저연산 모드에서 고연산 모드로 변경하기 위한 S770 단계가 수행된다.In operation S750 , the object recognition apparatus 100 determines whether object frame information that has not been generated by operating in the skip mode in the previous frame exists. If there is object frame information whose generation is blocked, step S760 for changing from the skip mode to the low-computational mode is performed. If there is no object frame information in which generation is blocked, step S770 for changing from the low-computational mode to the high-computational mode is performed.

S760 단계에서, 객체 인식 장치(100)는 이전 프레임에서 생성이 차단된 객체 프레임 정보 중 선순위의 우선순위 정보를 갖는 객체 프레임 정보를 저연산 모드로 생성하도록 제어한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 저연산 모드로 생성하는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 저연산 모드로 변경하는 객체 프레임 정보의 개수보다 적을 수 있다.In operation S760 , the object recognition apparatus 100 controls to generate object frame information having priority information of a priority among object frame information whose generation is blocked in a previous frame in a low-computational mode. The object recognition apparatus 100 may determine the number of object frame information generated in the low-computational mode based on the frame complexity. For example, the number of object frame information that is changed to the low-computation mode when the frame complexity is increased may be less than the number of object frame information that is changed to the low-computation mode when the frame complexity is decreased.

S770 단계에서, 객체 인식 장치(100)는 이전 프레임에서 저연산 모드로 생성된 객체 프레임 정보 중 선순위의 우선순위 정보를 갖는 객체 프레임 정보를 고연산 모드로 생성하도록 제어한다. 객체 인식 장치(100)는 프레임 복잡도에 근거하여 고연산 모드로 생성하는 객체 프레임 정보의 개수를 결정할 수 있다. 예를 들어, 프레임 복잡도가 증가하는 경우에 고연산 모드로 변경하는 객체 프레임 정보의 개수는 프레임 복잡도가 감소하는 경우에 고연산 모드로 변경하는 객체 프레임 정보의 개수보다 적을 수 있다.In operation S770 , the object recognition apparatus 100 controls to generate object frame information having priority information of a priority among object frame information generated in the low-computation mode in the previous frame in the high-computational mode. The object recognition apparatus 100 may determine the number of object frame information generated in the high computation mode based on frame complexity. For example, the number of object frame information that is changed to the high computation mode when frame complexity increases may be less than the number of object frame information that is changed to the high computation mode when frame complexity decreases.

위에서 설명한 내용은 본 발명을 실시하기 위한 구체적인 예들이다. 본 발명에는 위에서 설명한 실시 예들뿐만 아니라, 단순하게 설계 변경하거나 용이하게 변경할 수 있는 실시 예들도 포함될 것이다. 또한, 본 발명에는 상술한 실시 예들을 이용하여 앞으로 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다.The contents described above are specific examples for carrying out the present invention. The present invention will include not only the above-described embodiments, but also simple design changes or easily changeable embodiments. In addition, the present invention will also include techniques that can be easily modified and implemented in the future using the above-described embodiments.

100, 220, 320: 객체 인식 장치 110: 객체 프레임 정보 생성부
120: 프레임 분석부 130: 주행 경로 분석부
140: 객체 우선순위 연산기 150: 프레임 복잡도 연산기
160: 리소스 검출기 170: 연산 모드 지시자 연산기
180: 모드 제어부 200, 300: 자율 주행 시스템
210, 310: 센서부 230, 330: 차량 제어 장치
100, 220, 320: object recognition device 110: object frame information generating unit
120: frame analysis unit 130: driving path analysis unit
140: object priority operator 150: frame complexity operator
160: resource detector 170: operation mode indicator operator
180: mode control unit 200, 300: autonomous driving system
210, 310: sensor unit 230, 330: vehicle control device

Claims (20)

모드 제어 신호에 근거하여 적어도 하나의 객체를 인식하여 객체 프레임 정보를 생성하는 객체 프레임 정보 생성부;
상기 객체 프레임 정보를 수신하고, 다음 프레임에 대한 상기 객체의 예상 위치 또는 예상 속도를 산출하여 객체 추적 정보를 생성하는 프레임 분석부;
상기 객체 추적 정보를 수신하고, 상기 객체의 거리 및 속도에 근거하여 상기 객체에 대한 우선순위 정보를 생성하는 객체 우선순위 연산기;
상기 객체 추적 정보를 수신하고, 상기 객체의 개수 및 분포에 근거하여 프레임 복잡도를 산출하는 프레임 복잡도 연산기; 및
상기 우선순위 정보, 상기 프레임 복잡도, 및 리소스 점유 상태에 근거하여 객체 인식 범위 및 상기 객체 프레임 정보 생성부의 연산량을 조정하는 상기 모드 제어 신호를 생성하는 모드 제어부를 포함하는 객체 인식 장치.
an object frame information generator configured to recognize at least one object based on a mode control signal and generate object frame information;
a frame analyzer configured to receive the object frame information, calculate an expected position or an expected velocity of the object for a next frame, and generate object tracking information;
an object priority calculator for receiving the object tracking information and generating priority information on the object based on the distance and speed of the object;
a frame complexity calculator that receives the object tracking information and calculates frame complexity based on the number and distribution of the objects; and
and a mode controller configured to generate the mode control signal for adjusting an object recognition range and an amount of operation of the object frame information generator based on the priority information, the frame complexity, and a resource occupancy state.
제1 항에 있어서,
상기 객체 추적 정보에 근거하여 상기 다음 프레임에 대한 주행 경로 정보를 생성하는 주행 경로 분석부를 더 포함하는 객체 인식 장치.
According to claim 1,
The object recognition apparatus further comprising a driving path analyzer to generate driving path information for the next frame based on the object tracking information.
제2 항에 있어서,
상기 객체 우선순위 연산기는,
상기 객체 추적 정보 및 상기 주행 경로 정보에 근거하여 상기 객체와 상기 객체 인식 장치 사이의 충돌 가능성을 연산하고, 상기 충돌 가능성에 근거하여 상기 객체에 대한 우선순위 정보를 생성하는 객체 인식 장치.
3. The method of claim 2,
The object priority operator,
An object recognition apparatus for calculating a collision possibility between the object and the object recognition apparatus based on the object tracking information and the driving path information, and generating priority information on the object based on the collision possibility.
제2 항에 있어서,
상기 프레임 복잡도 연산기는,
상기 객체 추적 정보에 근거하여 객체 복잡도를 산출하고, 상기 주행 경로 정보에 근거하여 경로 복잡도를 산출하고, 상기 객체 복잡도 및 상기 경로 복잡도에 근거하여 상기 프레임 복잡도를 산출하는 객체 인식 장치.
3. The method of claim 2,
The frame complexity calculator,
An object recognition apparatus for calculating an object complexity based on the object tracking information, calculating a path complexity based on the driving path information, and calculating the frame complexity based on the object complexity and the path complexity.
제1 항에 있어서,
상기 프레임 복잡도 및 상기 리소스 점유 상태에 근거하여 연산 모드 지시자를 생성하고, 상기 모드 제어부에 상기 연산 모드 지시자를 제공하는 연산 모드 지시자 연산기를 더 포함하는 객체 인식 장치.
According to claim 1,
and an operation mode indicator operator generating an operation mode indicator based on the frame complexity and the resource occupancy state and providing the operation mode indicator to the mode control unit.
제5 항에 있어서,
상기 모드 제어부는,
상기 연산 모드 지시자에 근거하여 고연산 모드로 동작하기 위한 고연산 모드 제어 신호, 저연산 모드로 동작하기 위한 저연산 모드 제어 신호, 또는 스킵 모드로 동작하기 위한 스킵 모드 제어 신호를 상기 객체 프레임 정보 생성부에 제공하는 객체 인식 장치.
6. The method of claim 5,
The mode control unit,
The object frame information is generated by generating a high arithmetic mode control signal for operating in a high arithmetic mode, a low arithmetic mode control signal for operating in a low arithmetic mode, or a skip mode control signal for operating in a skip mode, based on the arithmetic mode indicator An object recognition device that provides wealth.
제6 항에 있어서,
상기 연산 모드 지시자 연산기는,
상기 프레임 복잡도에 근거하여 상기 연산 모드 지시자의 절대값을 결정하고, 상기 리소스 점유 상태에 근거하여 상기 연산 모드 지시자의 극성을 결정하고,
상기 객체 프레임 정보 생성부는,
상기 연산 모드 지시자의 극성에 근거하여 상기 객체의 연산 모드를 변경하고, 상기 연산 모드 지시자의 절대값에 근거하여 상기 연산 모드를 변경하는 객체의 개수를 결정하는 객체 인식 장치.
7. The method of claim 6,
The operation mode indicator operator,
determining the absolute value of the operation mode indicator based on the frame complexity, and determining the polarity of the operation mode indicator based on the resource occupancy state;
The object frame information generating unit,
The object recognition apparatus for changing the operation mode of the object based on the polarity of the operation mode indicator, and determining the number of objects for which the operation mode is changed based on the absolute value of the operation mode indicator.
제6 항에 있어서,
상기 객체 프레임 정보 생성부는,
상기 모드 제어 신호에 근거하여 객체 연산 제어 신호를 생성하는 객체 연산 제어기; 및
상기 객체 연산 제어 신호 및 주변부를 감지하여 생성되는 센싱 정보에 근거하여 객체 프레임 정보를 생성하는 객체 연산기를 포함하는 객체 인식 장치.
7. The method of claim 6,
The object frame information generating unit,
an object operation controller configured to generate an object operation control signal based on the mode control signal; and
and an object operator configured to generate object frame information based on the object operation control signal and sensing information generated by sensing a periphery.
제8 항에 있어서,
상기 객체 연산기는,
상기 고연산 모드에서 상기 센싱 정보에 근거하여 생성되는 입력 정보를 수신하는 특징 추출 고연산기;
상기 저연산 모드에서 상기 입력 정보를 수신하고, 상기 특징 추출 고연산기보다 낮은 연산량을 갖는 특징 추출 저연산기; 및
상기 객체 연산 제어 신호에 근거하여 상기 입력 정보를 특징 추출 고연산기 또는 특징 추출 저연산기 중 어느 하나에 출력하거나, 상기 특징 추출 고연산기 및 상기 특징 추출 저연산기로의 출력을 차단하는 멀티플렉서를 포함하는 객체 인식 장치.
9. The method of claim 8,
The object operator is
a feature extraction high-calculator for receiving input information generated based on the sensing information in the high-computation mode;
a feature extraction low operator receiving the input information in the low operation mode, and having a lower computational amount than the feature extraction high operator; and
An object comprising a multiplexer that outputs the input information to either a feature extraction high operator or a feature extraction low operator based on the object operation control signal, or blocks output to the feature extraction high operator and the feature extraction low operator recognition device.
제1 항에 있어서,
상기 리소스 점유 상태를 검출하는 리소스 검출기를 더 포함하는 객체 인식 장치.
According to claim 1,
The object recognition apparatus further comprising a resource detector for detecting the resource occupancy state.
주변부를 감지하여 센싱 정보를 생성하는 센서부;
상기 센싱 정보를 수신하고, 적어도 하나의 객체를 인식하여 객체 프레임 정보를 생성하는 객체 프레임 정보 생성부;
인식된 상기 객체에 근거하여 차량의 조향각 및 속도를 제어하는 차량 제어 장치;
상기 센서부, 상기 객체 프레임 정보 생성부, 및 상기 차량 제어 장치를 제어하는 프로세서;
상기 센싱 정보 또는 상기 객체 프레임 정보를 저장하는 메모리;
상기 객체 프레임 정보에 근거하여 프레임 복잡도를 연산하는 프레임 복잡도 연산기; 및
상기 프로세서 또는 상기 메모리의 리소스 점유 상태, 및 상기 프레임 복잡도에 근거하여 객체 인식 범위 및 상기 객체 프레임 정보 생성부의 연산량을 조정하는 모드 제어부를 포함하는 자율 주행 시스템.
a sensor unit that detects a periphery and generates sensing information;
an object frame information generator configured to receive the sensing information, recognize at least one object, and generate object frame information;
a vehicle control device for controlling a steering angle and speed of a vehicle based on the recognized object;
a processor for controlling the sensor unit, the object frame information generation unit, and the vehicle control device;
a memory for storing the sensing information or the object frame information;
a frame complexity calculator for calculating frame complexity based on the object frame information; and
and a mode controller for adjusting an object recognition range and an amount of calculation of the object frame information generator based on the resource occupation state of the processor or the memory and the frame complexity.
제11 항에 있어서,
상기 객체 프레임 정보를 수신하고, 다음 프레임에 대한 상기 객체의 예상 위치 또는 예상 속도를 산출하여 객체 추적 정보를 생성하는 프레임 분석부를 더 포함하는 자율 주행 시스템.
12. The method of claim 11,
and a frame analyzer configured to receive the object frame information, calculate an expected position or an expected speed of the object for a next frame, and generate object tracking information.
제12 항에 있어서,
상기 객체 추적 정보에 근거하여, 상기 다음 프레임에 대한 상기 차량의 주행 경로 정보를 생성하고, 상기 주행 경로 정보를 상기 차량 제어 장치에 제공하는 주행 경로 분석부를 더 포함하는 자율 주행 시스템.
13. The method of claim 12,
and a driving path analyzer configured to generate driving path information of the vehicle for the next frame based on the object tracking information and provide the driving path information to the vehicle control device.
제13 항에 있어서,
상기 객체 추적 정보 및 상기 주행 경로 정보를 수신하여 상기 객체와 상기 차량의 충돌 가능성을 연산하고, 상기 충돌 가능성에 근거하여 우선순위 정보를 생성하는 객체 우선순위 연산기를 더 포함하는 자율 주행 시스템.
14. The method of claim 13,
The autonomous driving system further comprising: an object priority calculator configured to receive the object tracking information and the driving route information, calculate a collision probability between the object and the vehicle, and generate priority information based on the collision probability.
제14 항에 있어서,
상기 모드 제어부는,
상기 우선순위 정보, 프레임 복잡도, 및 상기 리소스 점유 상태에 근거하여 상기 객체 인식 범위 및 상기 객체 프레임 정보 생성부의 연산량을 결정하는 모드 제어 신호를 생성하고,
상기 객체 프레임 정보 생성부는,
상기 모드 제어 신호에 근거하여 고연산 모드, 상기 고연산 모드보다 낮은 연산량을 갖는 저연산 모드, 및 스킵 모드 중 어느 하나로 동작하는 자율 주행 시스템.
15. The method of claim 14,
The mode control unit,
generating a mode control signal for determining the object recognition range and the amount of computation of the object frame information generating unit based on the priority information, the frame complexity, and the resource occupancy state;
The object frame information generating unit,
An autonomous driving system operating in any one of a high calculation mode, a low calculation mode having a lower calculation amount than the high calculation mode, and a skip mode based on the mode control signal.
객체 인식 장치가 고연산 모드 또는 상기 고연산 모드보다 낮은 연산량을 갖는 저연산 모드로 복수의 객체를 인식하여 객체 프레임 정보를 생성하는 단계;
상기 객체 인식 장치가 인식된 상기 복수의 객체와의 충돌 가능성에 근거하여 상기 복수의 객체에 대한 우선순위 정보를 생성하는 단계;
상기 객체 인식 장치가 상기 객체 프레임 정보에 근거하여 프레임 복잡도를 산출하는 단계;
상기 객체 인식 장치가 메모리 또는 프로세서의 리소스 점유 상태를 검출하는 단계; 및
상기 객체 인식 장치가 상기 우선순위 정보, 상기 리소스 점유 상태, 및 상기 프레임 복잡도에 근거하여 상기 고연산 모드로 인식되는 객체 인식 범위 또는 상기 저연산 모드로 인식되는 객체 인식 범위를 변경하는 단계를 포함하는 객체 인식 방법.
generating object frame information by recognizing, by an object recognition apparatus, a plurality of objects in a high-computational mode or a low-computational mode having a lower computational amount than the high-computational mode;
generating, by the object recognition apparatus, priority information on the plurality of objects based on the possibility of collision with the recognized objects;
calculating, by the object recognition apparatus, frame complexity based on the object frame information;
detecting, by the object recognition device, a resource occupancy state of a memory or a processor; and
Changing, by the object recognition device, the object recognition range recognized as the high-computation mode or the object recognition range recognized as the low-computation mode based on the priority information, the resource occupancy state, and the frame complexity How to recognize objects.
제16 항에 있어서,
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Full 상태인 경우, 이전 프레임에서 상기 고연산 모드로 객체 프레임 정보가 생성된 객체 중 가장 후 순위의 우선순위 정보를 갖는 객체를 상기 저연산 모드로 인식하고, 상기 프레임 복잡도에 근거하여 상기 저연산 모드로 생성하는 객체 프레임 정보의 개수를 조정하는 객체 인식 방법.
17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is the Full state, the object having the lowest priority priority information among the objects for which the object frame information is generated in the high computation mode in the previous frame is recognized as the low computation mode, and based on the frame complexity to adjust the number of object frame information generated in the low-computational mode.
제16 항에 있어서,
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Full 상태이고 이전 프레임에서 상기 복수의 객체가 모두 상기 저연산 모드로 객체 프레임 정보가 생성된 경우, 가장 후 순위의 우선순위 정보를 갖는 객체 프레임 정보의 생성을 차단하고, 상기 프레임 복잡도에 근거하여 객체 프레임 정보의 생성이 차단되는 개수를 조정하는 객체 인식 방법.
17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is Full and the object frame information is generated in the low-computation mode for all of the plurality of objects in the previous frame, the generation of object frame information having the lowest priority information is blocked, and the frame An object recognition method that adjusts the number of blocks to generate object frame information based on complexity.
제16 항에 있어서,
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 스킵 모드로 객체 프레임 정보의 생성이 차단된 객체 중 가장 선 순위의 우선순위 정보를 갖는 객체 프레임 정보를 상기 저연산 모드로 생성하고, 상기 프레임 복잡도에 근거하여 상기 저연산 모드로 생성하는 객체 프레임 정보의 개수를 조정하는 객체 인식 방법.
17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is the Not Full state, object frame information having the highest priority information among the objects whose object frame information is blocked in the skip mode in the previous frame is generated in the low computation mode, and the frame An object recognition method for adjusting the number of object frame information generated in the low-computational mode based on complexity.
제16 항에 있어서,
상기 객체 인식 범위를 변경하는 단계는,
상기 리소스 점유 상태가 Not Full 상태인 경우, 이전 프레임에서 상기 저연산 모드로 객체 프레임 정보가 생성된 객체 중 우선순위 정보를 갖는 객체 프레임 정보를 상기 고연산 모드로 생성하고, 상기 프레임 복잡도에 근거하여 상기 고연산 모드로 생성하는 객체 프레임 정보의 개수를 조정하는 객체 인식 방법.
17. The method of claim 16,
Changing the object recognition range includes:
When the resource occupancy state is the Not Full state, object frame information having priority information is generated in the high computation mode among the objects for which the object frame information is generated in the low computation mode in the previous frame, and based on the frame complexity, An object recognition method for adjusting the number of object frame information generated in the high computation mode.
KR1020170056538A 2016-11-23 2017-05-02 Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device KR102267040B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/804,992 US10663974B2 (en) 2016-11-23 2017-11-06 Object recognition device, autonomous driving system including the same, and object recognition method using the object recognition device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160156767 2016-11-23
KR1020160156767 2016-11-23

Publications (2)

Publication Number Publication Date
KR20180058606A KR20180058606A (en) 2018-06-01
KR102267040B1 true KR102267040B1 (en) 2021-06-21

Family

ID=62635005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170056538A KR102267040B1 (en) 2016-11-23 2017-05-02 Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device

Country Status (1)

Country Link
KR (1) KR102267040B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102568111B1 (en) * 2019-10-07 2023-08-17 현대오토에버 주식회사 Apparatus and method for detecting road edge
US11675366B2 (en) * 2019-12-27 2023-06-13 Motional Ad Llc Long-term object tracking supporting autonomous vehicle navigation
KR102520572B1 (en) * 2020-06-22 2023-04-11 한양대학교 산학협력단 Object detection acceleration method using image approximation and weight quantization and neural acceralator using the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100798815B1 (en) 2007-04-20 2008-01-28 (주)지오매틱코리아 Utilizing method of adaptive range of the integrated vehicle movement system for automatic driving
KR101173853B1 (en) * 2012-04-18 2012-08-14 (주)한국알파시스템 Apparatus and method for Multi-Object Recognition
JP2013539854A (en) 2010-09-13 2013-10-28 オランジュ Method, device and system for detecting an object
JP2016085039A (en) 2014-10-22 2016-05-19 株式会社デンソー Ultrasonic wave type object detection device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101188584B1 (en) * 2007-08-28 2012-10-05 주식회사 만도 Apparatus for Discriminating Forward Objects of Vehicle by Using Camera And Laser Scanner
KR101417408B1 (en) * 2012-11-15 2014-07-14 현대자동차주식회사 Method and system for judging object by radar
KR102287310B1 (en) * 2015-04-02 2021-08-09 현대자동차주식회사 Object determination system and method of the vehicle around

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100798815B1 (en) 2007-04-20 2008-01-28 (주)지오매틱코리아 Utilizing method of adaptive range of the integrated vehicle movement system for automatic driving
JP2013539854A (en) 2010-09-13 2013-10-28 オランジュ Method, device and system for detecting an object
KR101173853B1 (en) * 2012-04-18 2012-08-14 (주)한국알파시스템 Apparatus and method for Multi-Object Recognition
JP2016085039A (en) 2014-10-22 2016-05-19 株式会社デンソー Ultrasonic wave type object detection device

Also Published As

Publication number Publication date
KR20180058606A (en) 2018-06-01

Similar Documents

Publication Publication Date Title
US11631200B2 (en) Prediction on top-down scenes based on action data
US11215997B2 (en) Probabilistic risk assessment for trajectory evaluation
CN112752988B (en) Radar space estimation
US10663974B2 (en) Object recognition device, autonomous driving system including the same, and object recognition method using the object recognition device
JP7430277B2 (en) Obstacle detection method and apparatus, computer device, and computer program
JP7239703B2 (en) Object classification using extraterritorial context
US11527078B2 (en) Using captured video data to identify pose of a vehicle
CN109074742B (en) Peripheral recognition device, peripheral recognition method, and computer-readable recording medium
KR102267040B1 (en) Objection recognition device, autonomous travel system including the same, and objection recognizing method using the objection recognition device
Kim et al. Multi-sensor-based detection and tracking of moving objects for relative position estimation in autonomous driving conditions
CN117980212A (en) Planning system based on optimization
US20220171975A1 (en) Method for Determining a Semantic Free Space
US20230048926A1 (en) Methods and Systems for Predicting Properties of a Plurality of Objects in a Vicinity of a Vehicle
US11861857B2 (en) Determining pixels beyond nominal maximum sensor depth
US20220180539A1 (en) Depth dependent pixel filtering
EP4146510A1 (en) Trajectory classification
US11953590B1 (en) Radar multipath detection based on changing virtual arrays
US11764806B2 (en) Data compression system and method of using
US11994591B2 (en) Determining depth using multiple modulation frequencies
US20230084623A1 (en) Attentional sampling for long range detection in autonomous vehicles
US20220179089A1 (en) Determining depth using multiple modulation frequencies
Lee et al. Vehicle Distance Estimation from a Monocular Camera for Advanced Driver Assistance Systems. Symmetry 2022, 14, 2657
Zhang et al. A Vision-Based Method for Vehicle Forward Collision Warning
WO2022125612A1 (en) Determining depth using multiple modulation frequencies

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant