KR20230100927A - 회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크 - Google Patents

회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크 Download PDF

Info

Publication number
KR20230100927A
KR20230100927A KR1020210190613A KR20210190613A KR20230100927A KR 20230100927 A KR20230100927 A KR 20230100927A KR 1020210190613 A KR1020210190613 A KR 1020210190613A KR 20210190613 A KR20210190613 A KR 20210190613A KR 20230100927 A KR20230100927 A KR 20230100927A
Authority
KR
South Korea
Prior art keywords
object detection
orientation
image
size
rotational
Prior art date
Application number
KR1020210190613A
Other languages
English (en)
Inventor
박종희
이상설
장성준
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to PCT/KR2021/020124 priority Critical patent/WO2023127995A1/ko
Priority to KR1020210190613A priority patent/KR20230100927A/ko
Publication of KR20230100927A publication Critical patent/KR20230100927A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크가 제공된다. 본 발명의 실시예에 따른 객체 검출 방법은, 영상을 분석하여 객체의 클래스, 위치, 크기와 오리엔테이션(Orientation)을 검출하도록 학습된 객체 검출 네트워크를 이용하여 입력된 영상으로부터 객체를 검출한다. 이에 의해, 객체 검출시 회전형 BB를 이용하여 객체의 클래스, 위치, 크기 외에 오리엔테이션 까지 검출함으로써, 객체 검출 결과를 활용하는 어플리케이션이 오리엔테이션 정보를 이용하여 보다 정교한 기능 수행이나 향상된 서비스 제공이 가능해진다.

Description

회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크{Rotational Bounding Box-based Object Detection Deep Learning Network}
본 발명은 머신러닝 기술에 관한 것으로, 더욱 상세하게는 딥러닝 네트워크 기반으로 객체를 검출하기 위한 방법에 관한 것이다.
2차원 영상에서 객체 검출을 수행할 때 영상 좌표계와 평행한 직사각형 형태의 BB(Bounding Box) 만을 검출하고 있는데, 도 1에 도시된 바와 같이 다수의 객체들이 혼재하고 있는 상황에서는 검출에 실패하는 경우가 빈번하다.
또한, 검출에 성공한다 하더라도 객체의 오리엔테이션(orientation, 방향)을 판단할 수 없다. 하지만, 2차원 객체 검출 이후 사용되는 응용 어플리케이션은 검출된 객체의 오리엔테이션을 필요로 하는 경우가 있다.
예를 들면 도 2에 도시된 바와 같이 스마트 팩토리에서 많이 사용되는 객체 피킹 로봇 암의 경우 혼재된 객체에서 특정 객체만을 집어내야 하기 때문에, 객체의 오리엔테이션은 매우 중요한 정보가 된다.
현재 객체의 오리엔테이션 정보를 예측하기 위해, 도 3과 같이 2차원 영상에서 3차원 BB를 추정하는 알고리즘을 사용하는 사례도 있다. 하지만 이는 2차원 객체 검출에 비해 현저히 많은 연산량을 필요로 하며, 이를 실시간으로 구동하기 위해서는 고가의 GPU가 탑재되어야 하기 때문에 상용화/산업화에 있어 효율성이 떨어진다는 문제가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 객체 검출시 회전형 BB를 이용하여 객체의 클래스, 위치, 크기 외에 오리엔테이션 까지 검출할 수 있는 객체 검출 네트워크 및 이를 이용한 객체 검출 방법과 시스템을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 객체 검출 방법은, 영상을 입력받는 단계; 영상을 분석하여 객체의 클래스, 위치, 크기와 오리엔테이션(Orientation)을 검출하도록 학습된 객체 검출 네트워크를 이용하여, 입력된 영상으로부터 객체를 검출하는 단계; 및 객체 검출 결과를 출력하는 단계;를 포함한다.
객체의 위치는, 객체의 BB(Bounding Box)의 좌표로 표현되고, 객체의 크기는, 객체의 BB의 길이로 표현되며, 객체의 오리엔테이션은, 객체의 BB의 오리엔테이션으로 표현될 수 있다.
BB의 오리엔테이션은, BB가 반시계 방향으로 회전한 각도로 표현될 수 있다. 각도는, radian으로 표현될 수 있다.
객체 검출 네트워크는, 학습 영상으로부터 검출한 객체의 BB인 제1 BB와 GT(GroundTruth) BB인 제2 BB 간의 Loss가 줄어드는 방향으로 학습되되, 제1 BB의 오리엔테이션과 제2 BB의 오리엔테이션 간의 Loss는, 제1 BB과 제2 BB의 IoU(Intersection over Union)로 계산될 수 있다.
제1 BB과 제2 BB의 IoU는, 제1 BB의 넓이, 제2 BB의 넓이, 제1 BB와 제2 BB의 교차점들, 제1 BB 내부에 있는 제2 BB의 꼭짓점들, 제2 BB 내부에 있는 제1 BB의 꼭짓점들을 기초로 계산된 교차 넓이를 기초로 계산될 수 있다.
교차 넓이는, 아래의 수학식을 통해 계산되며,
|{(xP1yP2 - xP2yP1) + (xP2yP3 - xP3yP2) + (xPN+MyP1 - xP1yPN+M)}/2|
P1(xP1, yP1),.. PN+M(xPN+M, yPN+M)은,
제1 BB와 제2 BB의 교차점들, 제1 BB 내부에 있는 제2 BB의 꼭짓점들, 제2 BB 내부에 있는 제1 BB의 꼭짓점들을 반시계 방향으로 정렬한 것일 수 있다.
한편, 본 발명의 다른 실시예에 따른, 객체 검출 시스템은, 영상을 입력받는 입력부; 입력부를 통해 입력되는 영상을 분석하여 객체의 클래스, 위치, 크기와 오리엔테이션(Orientation)을 검출하도록 학습된 객체 검출 네트워크를 이용하여, 입력된 영상으로부터 객체를 검출하는 프로세서; 및 프로세서에 의한 객체 검출 결과를 출력하는 출력부;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 객체 검출시 회전형 BB를 이용하여 객체의 클래스, 위치, 크기 외에 오리엔테이션 까지 검출함으로써, 객체 검출 결과를 활용하는 어플리케이션이 오리엔테이션 정보를 이용하여 보다 정교한 기능 수행이나 향상된 서비스 제공이 가능해진다.
또한, 본 발명의 실시예들에 따르면, 기존 2차원 객체 검출 네트워크에 큰 변경 없이 구현 가능하기 때문에, 모바일 기기나 엣지 서버 등의 디바이스에서도 실시간으로 적용하는 것이 가능하다.
도 1. 일반적인 2차원 객체 검출 결과
도 2. 객체 피킹을 위해 오리엔테이션이 필요한 로봇 암 예시
도 3. 3차원 객체 검출
도 4. 회전형 객체 검출 결과
도 5,6. 회전된 BB 간 IoU
도 7. 회전된 BB 간 IoU 계산 방법
도 8. 본 발명의 실시예에 따른 객체 검출 시스템
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
본 발명의 실시예에서는 회전형 BB(Bounding Box) 기반의 객체 검출 딥러닝 네트워크와 이를 활용한 객체 검출 방법 및 시스템을 제시한다. 딥러닝 네트워크를 기반으로 객체의 클래스, 위치, 크기 외에 오리엔테이션(orientation, 방향) 까지 검출하는 네트워크이다.
기존 3차원 객체 검출에 비해 매우 적은 연산량으로, 검출한 객체의 오리엔테이션까지 추정하는 것이 가능하게 한다.
객체의 오리엔테이션을 함께 검출하기 위해 BB 정보는 기존과 다르게 5차원 벡터(x, y, width, height, orientation)로 구성하여야 한다. 여기서, x,y는 BB의 중심점, 즉, 객체의 위치를 나타내고, width, height는 BB의 너비와 높이, 즉, 객체의 크기를 나타낸다.
마지막으로 추가되는 orientation은 영상 좌표계에서 BB가 반시계 방향으로 회전한 각도, 즉, 객체의 오리엔테이션을 나타내는데, 단위는 degree 가 아닌 radian을 활용한다 .이는 최적화 알고리즘에서 보다 빠르게 수렴하도록 하기 위함이다.
따라서, 본 발명의 실시예에 따른 객체 검출 방법 및 시스템에 적용되는 객체 검출 네트워크는 입력 영상을 분석하여 객체 검출 결과로써, 객체의 클래스, 객체의 위치와 크기 정보(BB의 x,y,width,height) 외에 객체의 오리엔테이션 까지 출력한다고 할 수 있다.
도 4에는 본 발명의 실시예에 적용가능한 객체 검출 네트워크를 활용한 객체 검출 결과를 나타내었다. 도시된 바와 같이, BB의 오리엔테이션으로 객체의 오리엔테이션 까지 나타났음을 확인할 수 있다.
한편, 본 발명의 실시예에 적용가능한 객체 검출 네트워크는 학습 영상으로부터 검출한 객체의 BB와 GT(Ground Truth) BB 간의 Loss를 줄이는 방향으로 학습된다.
객체의 위치 정보와 크기 정보인 BB의 x, y, width, height의 Loss 함수는 기존과 동일하게 구현하면 된다. 하지만, 객체 검출 네트워크가 검출한 BB와 GT BB의 오리엔테이션에 Loss가 있다면, 도 5와 도 6에 도시된 바와 같이, 두 BB 간의 IoU(Intersection over Union)가 사각형이 아닌 다각형 형태로 존재하기 때문에, 기존의 IoU 기법을 그대로 활용할 수 없다.
이에 따라, 본 발명의 실시에에서 오리엔테이션에 대한 Loss는 L2 Norm 기반 Loss를 활용하며, 구체적인 방법은 도 7에 도시된 바와 같다. 오리엔테이션에 의해 IoU가 사각형이 아닌 두 BB 간 IoU를 계산하기 위한 방법이다.
입력은 2개의 회전된 BB인데, 이하에서 객체 검출 네트워크가 검출한 BB는 R1로 GT BB는 R2인 것으로 상정한다.
도시된 바와 같이, 먼저 IoU를 0으로 초기화한 후(1), R1과 R2의 교차점 I1,I2,...,IN을 추출한다(2). 도 5에는 R1과 R2의 교차점 I1,I2를 추출한 결과를, 도 6에는 R1과 R2의 교차점 I1,I2,...,I8을 추출한 결과를 예시하였다.
다음, R1의 내부에 있는 R2의 꼭짓점 V1,V2,...,VN을 추출하고(3), R2의 내부에 있는 R1의 꼭짓점 VN+1,VN+2,...,VM을 추출한다(4). 도 5에는 R1의 내부에 있는 R2의 꼭짓점 V1과 R2의 내부에 있는 R1의 꼭짓점 V2를 추출한 결과를 예시하였다. 도 6에는 R1의 내부에 있는 R2의 꼭짓점이 없고 R2의 내부에도 R1의 꼭짓점이 없어 V가 추출되지 않았다.
다음, '2'~'4'에서 추출된 교차점들과 꼭짓점들인 I1,...,IN,V1,...,VM을 반시계 방향으로 정렬해 P1,...,PN+M으로 표현한다.
그리고, 아래의 수학식을 이용하여 P 넓이(교차 넓이)를 계산한다(6).
P 넓이 = |{(xP1yP2 - xP2yP1) + (xP2yP3 - xP3yP2) + (xPN+MyP1 - xP1yPN+M)}/2|
여기서, P1, .. , PN는 각각 (xP1, yP1),.. (xPN+M, yPN+M)이다.
이후, 아래의 수학식을 이용하여 IoU를 계산하고(7), 결과 값을 반환한다(8).
IoU = P 넓이/(R1 넓이 + R2 넓이 - P 넓이)
도 8은 본 발명의 실시예에 따른 객체 검출 시스템의 구성을 도시한 도면이다. 본 발명의 실시예에 따른 객체 검출 시스템은, 도시된 바와 같이, 영상 입력부(110), 영상 전처리부(120), 프로세서(130), 출력부(140) 및 저장부(150)를 포함하여 구성된다.
영상 입력부(110)는 객체를 검출할 대상 영상을 입력받는다. 영상 전처리부(120)는 영상 입력부(110)를 통해 입력되는 영상에 대해 필요한 전처리, 이를 테면 정규화 처리를 수행한다.
프로세서(130)는 전술한 객체 검출 네트워크를 이용하여 영상 전처리부(120)에서 전처리된 영상으로부터 객체를 검출하고, 출력부(140)는 프로세서(130)에 의한 검출 결과를 출력한다.
전술한 바와 같이, 객체 검출 결과에는 객체의 클래스와 위치, 크기 외에 오리엔테이션 정보가 포함된다.
저장부(150)는 프로세서(130)가 객체 검출 네트워크를 실행/구동함에 있어 필요한 저장공간을 제공한다.
지금까지, 회전형 BB 기반 객체 검출 딥러닝 네트워크 및 이를 활용한 객체 검출 방법과 시스템에 대해 바람직한 실시예를 들어 상세히 설명하였다.
위 실시예에서는 오리엔테이션을 적용할 수 있는 회전형 BB의 개념을 제시하여, 객체의 오리엔테이션 까지 검출하도록 하였다. 위 기술은 2차원 객체 검출 네트워크의 큰 변경 없이 적용가능하므로, 모바일이나 엣지 타입의 디바이스에 실시간으로 적용하는 것이 가능하다.
또한, 기존 2차원 객체 검출 대비 뒤에 활용되는 어플리케이션에 오리엔테이션을 제공할 수 있어 보다 정교한 기능과 혁신적인 서비스를 창출하는 것을 가능하게 한다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
R1, R2 : 회전형 BB(Bounding Box)
I1,I2,...,I8 : R1과 R2의 교차점
V1 : R1의 내부에 있는 R2의 꼭짓점
V2 : 과 R2의 내부에 있는 R1의 꼭짓점
P : R1, R2의 교차 부분

Claims (8)

  1. 영상을 입력받는 단계;
    영상을 분석하여 객체의 클래스, 위치, 크기와 오리엔테이션(Orientation)을 검출하도록 학습된 객체 검출 네트워크를 이용하여, 입력된 영상으로부터 객체를 검출하는 단계;
    객체 검출 결과를 출력하는 단계;를 포함하는 것을 특징으로 하는 객체 검출 방법.
  2. 청구항 1에 있어서,
    객체의 위치는,
    객체의 BB(Bounding Box)의 좌표로 표현되고,
    객체의 크기는,
    객체의 BB의 길이로 표현되며,
    객체의 오리엔테이션은,
    객체의 BB의 오리엔테이션으로 표현되는 것을 특징으로 하는 객체 검출 방법.
  3. 청구항 2에 있어서,
    BB의 오리엔테이션은,
    BB가 반시계 방향으로 회전한 각도로 표현되는 것을 특징으로 하는 객체 검출 방법.
  4. 청구항 2에 있어서,
    각도는,
    radian으로 표현되는 것을 특징으로 하는 객체 검출 방법.
  5. 청구항 2에 있어서,
    객체 검출 네트워크는,
    학습 영상으로부터 검출한 객체의 BB인 제1 BB와 GT(GroundTruth) BB인 제2 BB 간의 Loss가 줄어드는 방향으로 학습되되,
    제1 BB의 오리엔테이션과 제2 BB의 오리엔테이션 간의 Loss는,
    제1 BB과 제2 BB의 IoU(Intersection over Union)로 계산되는 것을 특징으로 하는 객체 검출 방법.
  6. 청구항 5에 있어서,
    제1 BB과 제2 BB의 IoU는,
    제1 BB의 넓이, 제2 BB의 넓이, 제1 BB와 제2 BB의 교차점들, 제1 BB 내부에 있는 제2 BB의 꼭짓점들, 제2 BB 내부에 있는 제1 BB의 꼭짓점들을 기초로 계산된 교차 넓이를 기초로 계산되는 것을 특징으로 하는 객체 검출 방법.
  7. 청구항 6에 있어서,
    교차 넓이는,
    아래의 수학식을 통해 계산되며,
    |{(xP1yP2 - xP2yP1) + (xP2yP3 - xP3yP2) + (xPN+MyP1 - xP1yPN+M)}/2|
    P1(xP1, yP1),.. PN+M(xPN+M, yPN+M)은,
    제1 BB와 제2 BB의 교차점들, 제1 BB 내부에 있는 제2 BB의 꼭짓점들, 제2 BB 내부에 있는 제1 BB의 꼭짓점들을 반시계 방향으로 정렬한 것을 특징으로 하는 객체 검출 방법.
  8. 영상을 입력받는 입력부;
    입력부를 통해 입력되는 영상을 분석하여 객체의 클래스, 위치, 크기와 오리엔테이션(Orientation)을 검출하도록 학습된 객체 검출 네트워크를 이용하여, 입력된 영상으로부터 객체를 검출하는 프로세서; 및
    프로세서에 의한 객체 검출 결과를 출력하는 출력부;를 포함하는 것을 특징으로 하는 객체 검출 시스템.
KR1020210190613A 2021-12-29 2021-12-29 회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크 KR20230100927A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2021/020124 WO2023127995A1 (ko) 2021-12-29 2021-12-29 회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크
KR1020210190613A KR20230100927A (ko) 2021-12-29 2021-12-29 회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210190613A KR20230100927A (ko) 2021-12-29 2021-12-29 회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크

Publications (1)

Publication Number Publication Date
KR20230100927A true KR20230100927A (ko) 2023-07-06

Family

ID=86999278

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210190613A KR20230100927A (ko) 2021-12-29 2021-12-29 회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크

Country Status (2)

Country Link
KR (1) KR20230100927A (ko)
WO (1) WO2023127995A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618814B1 (ko) * 2012-10-09 2016-05-09 에스케이텔레콤 주식회사 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법
US10346723B2 (en) * 2016-11-01 2019-07-09 Snap Inc. Neural network for object detection in images
US10936905B2 (en) * 2018-07-06 2021-03-02 Tata Consultancy Services Limited Method and system for automatic object annotation using deep network
KR102254950B1 (ko) * 2019-06-26 2021-05-24 주식회사 티맥스티베로 캘리브레이션 방법
KR102315311B1 (ko) * 2019-10-31 2021-10-19 재단법인대구경북과학기술원 객체 검출 모델의 학습 방법 및 객체 검출 모델이 실행되는 객체 검출 장치

Also Published As

Publication number Publication date
WO2023127995A1 (ko) 2023-07-06

Similar Documents

Publication Publication Date Title
JP6430064B2 (ja) データを位置合わせする方法及びシステム
CN111665842B (zh) 一种基于语义信息融合的室内slam建图方法及系统
Yang et al. Toward the repeatability and robustness of the local reference frame for 3D shape matching: An evaluation
Hirose et al. Fast Line Description for Line-based SLAM.
Azad et al. 6-DoF model-based tracking of arbitrarily shaped 3D objects
Han et al. CAD-based 3D objects recognition in monocular images for mobile augmented reality
Han et al. Line-based initialization method for mobile augmented reality in aircraft assembly
Wang et al. A LINE-MOD-based markerless tracking approachfor AR applications
Zhao et al. Prediction-based geometric feature extraction for 2D laser scanner
KR20200050246A (ko) 2차원 영상으로부터 3차원 객체를 검출하는 방법 및 장치
US20220277595A1 (en) Hand gesture detection method and apparatus, and computer storage medium
CN112465876A (zh) 一种立体匹配方法及设备
Shahrokni et al. Polyhedral object detection and pose estimation for augmented reality applications
Han et al. SQ-SLAM: Monocular semantic SLAM based on superquadric object representation
Chamzas et al. cMinMax: A fast algorithm to find the corners of an N-dimensional convex polytope
KR20230100927A (ko) 회전형 바운딩박스 기반 객체 검출 딥러닝 네트워크
Spiteri et al. Structure augmented monocular saliency for planetary rovers
Thomas et al. Modeling large-scale indoor scenes with rigid fragments using RGB-D cameras
Cobzas et al. Cylindrical panoramic image-based model for robot localization
Jiao et al. Leveraging local planar motion property for robust visual matching and localization
Proença et al. Probabilistic combination of noisy points and planes for RGB-D odometry
Lin et al. Boundary points based scale invariant 3D point feature
US10796435B2 (en) Image processing method and image processing apparatus
Lin et al. Robust improvement in 3D object landmark inference for semantic mapping
Zhang et al. Dovo: Mixed visual odometry based on direct method and orb feature