KR20210035112A - 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체 - Google Patents

내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체 Download PDF

Info

Publication number
KR20210035112A
KR20210035112A KR1020210032233A KR20210032233A KR20210035112A KR 20210035112 A KR20210035112 A KR 20210035112A KR 1020210032233 A KR1020210032233 A KR 1020210032233A KR 20210032233 A KR20210032233 A KR 20210032233A KR 20210035112 A KR20210035112 A KR 20210035112A
Authority
KR
South Korea
Prior art keywords
marking
image
point
area
intersection
Prior art date
Application number
KR1020210032233A
Other languages
English (en)
Other versions
KR102608167B1 (ko
Inventor
빙 리
즈펑 조우
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210035112A publication Critical patent/KR20210035112A/ko
Application granted granted Critical
Publication of KR102608167B1 publication Critical patent/KR102608167B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

이 개시는 내비게이션 표적의 마킹 방법을 제공하며, 이 방법은: 마킹 영상을 획득하고; 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하고; 상기 마킹 대상과 그와 대응하는 상기 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정하며; 그 중에서, 상기 마킹 처리 모델은 상기 마킹 영상에서 마킹 영역을 축소하는데 사용된다. 이 마킹 방법은 마킹 영상에서 마킹 영역을 축소하고, 마킹 범위를 줄이고, 마킹 효율성을 향상시킬 수 있다. 이 개시는 또한 내비게이션 표적의 마킹 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램 제품을 제공한다.

Description

내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체{Method and device for marking navigation target, electronic equipment, and computer readable medium}
이 개시의 실시예는 증강 현실 내비게이션 기술 분야에 관련되며, 특히 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램 제품에 관련된다.
증강 현실(Augmented Reality, 간략히 AR)은 가상 현실에 기반하여 발전된 신기술이다. 이는 컴퓨터 시스템에서 제공하는 정보를 통하여 현실 세계에 대한 사용자의 인지 기술을 높이고, 가상 정보를 현실 세계에 적용하고, 또한 컴퓨터에 의해 생성된 가상의 물체, 장면 또는 시스템 프롬프트 정보를 실제 장면에 중첩하여, 현실에 대한 증강을 구현한다.
증강 현실 내비게이션에서는, 차량, 보행자, 도로 표지 및 기타 전방 정보 등과 같은 AR 내비게이션 데이터를 검출하여 마킹을 수행해야 한다. 수동 마킹은 일반적인 마킹 방식으로, 이러한 마킹 방식은 처리 효율이 낮고 인건비가 많이 든다. 또한 데이터의 양이 증가할수록 오류 가능성이 높아지고, 또한 시력 등의 건강 상태에 더 큰 영향을 미친다.
이 개시의 실시예는 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램 제품을 제공한다.
제1 양태에서, 이 개시의 실시예는 내비게이션 표적의 마킹 방법을 제공하며, 이 방법은:
마킹 영상을 획득하고;
마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하며;
상기 마킹 대상과 그와 대응하는 상기 마킹 영역에 따라 상기 마킹 대상에 매칭되는 마킹 처리 모델을 설정하며; 그 중에서, 상기 마킹 처리 모델은 상기 마킹 영상에서 마킹 영역을 축소하는데 사용되는 것을 포함한다.
일부 실시예에서, 상기 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하는 것은:
상기 마킹 영상에서 소실점을 결정하고;
상기 소실점과 상기 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하며;
상기 최저 마킹점과 상기 최고 마킹점으로 둘러싸인 폐쇄 영역을 상기 마킹 영역으로 결정하는 것을 포함한다.
일부 실시예에서, 상기 소실점과 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하는 것은:
상기 마킹 대상이 차량인 경우, 상기 최저 마킹점은 상기 마킹 영상의 하변이 좌측변과 교차하는 제1 교차점과, 하변이 우측변과 교차하는 제2 교차점을 포함하고; 상기 최고 마킹점은 상기 소실점과 상기 제1 교차점의 연결선이 원단선과 교차하는 제3 교차점과, 상기 소실점과 상기 제2 교차점의 연결선이 상기 원단선과 교차하는 제4 교차점을 포함하며; 그 중에서, 상기 원단선은 상기 마킹 영상의 하변에 평행하고, 또한 상기 마킹 영상의 하변과 사전 설정 거리만큼 떨어진 선인 것을 포함한다.
일부 실시예에서, 상기 소실점과 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하는 것은:
상기 마킹 대상이 보행자인 경우, 상기 최저 마킹점은 상기 마킹 영상의 하변이 좌측변과 교차하는 제1 교차점과, 하변이 우측변과 교차하는 제2 교차점을 포함하고; 상기 최고 마킹점은 높이선이 상기 마킹 영상의 좌측변과 교차하는 제3 교차점과, 상기 높이선이 상기 마킹 영상의 우측변과 교차하는 제4 교차점을 포함하며; 그 중에서, 상기 높이선은 상기 소실점을 통과하고, 또한 지면과 사전 설정 높이만큼 떨어진 선인 것을 포함한다.
일부 실시예에서, 상기 소실점과 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하는 것은:
상기 마킹 대상이 교통 표지인 경우, 상기 최저 마킹점은 제1 높이선이 상기 마킹 영상의 좌측변과 교차하는 제1 교차점과, 상기 제1 높이선이 상기 마킹 영상의 우측변과 교차하는 제2 교차점을 포함하고; 상기 최고 마킹점은 제2 높이선이 상기 마킹 영상의 좌측과 교차하는 제3 교차점과, 제2 높이선이 상기 마킹 영상의 우측과 교차하는 제4 교차점을 포함하며; 그 중에서, 상기 제1 높이선은 상기 소실을 통과하고 또한 지면과 제1 사전 설정 높이만큼 떨어진 선이고, 상기 제2 높이선은 상기 소실점을 통과하고 또한 지면과 제2 사전 설정 높이만큼 떨어진 선이며, 상기 제1 사전 설정 높이는 상기 제2 사전 설정 높이보다 작은 것을 포함한다.
일부 실시예에서, 상기 마킹 대상과 그와 대응하는 상기 마킹 영역에 따라 상기 마킹 대상에 매칭되는 마킹 처리 모델을 설정한 후에:
상기 마킹 처리 모델에 기반하여 상기 마킹 영역의 히트 맵을 획득하고; 상기 히트 맵에 기반하여 상기 마킹 영역의 표적을 마킹하는 것을 포함한다.
일부 실시예에서, 상기 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하기 전에:
상기 마킹 영상에서 근사 영상을 제외하는 것을 더 포함한다.
일부 실시예에서, 상기 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하기 전에:
상기 마킹 영상이 위치한 경도 및 위도 정보를 획득하고;
상기 경도 및 위도 정보에 기반하여 상기 마킹 대상을 결정하는 것을 더 포함한다.
제2 양태에서, 이 개시의 실시예는 내비게이션 표적의 마킹 장치를 제공하며, 이 장치는:
마킹 영상을 획득하는데 사용되는, 획득 모듈;
마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하는데 사용되는, 마킹 영역 축소 모듈;
상기 마킹 대상과 그와 대응하는 상기 마킹 영역에 따라 상기 마킹 대상에 매칭되는 마킹 처리 모델을 설정하는데 사용되는 마킹 처리 모델 획득 모듈을 포함하며; 그 중에서, 상기 마킹 처리 모델은 상기 마킹 영상에서 마킹 영역을 축소하는데 사용된다.
일부 실시예에서, 상기 마킹 영역 축소 모듈은:
상기 마킹 영상에서 소실점을 결정하는데 사용되는, 소실점 결정 유닛;
상기 소실점 및 상기 마킹 대상에 기반하여 최저 마킹점 및 최고 마킹점을 결정하는데 사용되는, 마킹점 결정 유닛;
상기 최저 마킹점 및 상기 최고 마킹점으로 둘러싸인 폐쇄 영역을 상기 마킹 영역으로 결정하는데 사용되는, 마킹 영역 축소 유닛;을 포함한다.
일부 실시예에서, 상기 장치는:
상기 마킹 영상에서 근사 영상을 제외하는데 사용되는, 근사 영상 제외 모듈;을 더 포함한다.
일부 실시예에서, 상기 장치는:
상기 마킹 영상이 위치한 경도 및 위도 정보를 획득하는데 사용되는, 경도 및 위도 결정 모듈;
상기 경도 및 위도 정보에 기반하여 상기 마킹 대상을 결정하는데 사용되는, 마킹 대상 결정 모듈;을 더 포함한다.
제3 양태에서, 이 개시의 실시예는 전자 기기를 제공하며, 이 기기는:
하나 이상의 프로세서;
그 위에 하나 이상의 프로그램을 저장하고, 상기 하나 이상의 프로그램이 상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서는 전술한 어느 하나의 내비게이션 표적의 마킹 방법을 구현하는 메모리;
상기 프로세서와 메모리 사이에 연결되고, 상기 프로세서와 상기 메모리 사이의 정보 인터랙션을 구현하도록 구성되는 하나 이상의 I/O 인터페이스를 포함한다.
제4 양태에서, 이 개시의 실시예는 컴퓨터 판독 가능 저장 매체를 제공하며, 이 매체는: 그 위에 컴퓨터 프로그램이 저장되며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 어느 하나의 내비게이션 표적의 마킹 방법을 구현한다.
제5 양태에서, 이 개시의 실시예는 컴퓨터 프로그램 제품을 제공하며, 상기 제품은 컴퓨터 프로그램을 포함하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 어느 하나의 내비게이션 표적의 마킹 방법을 구현한다.
이 개시의 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법은, 마킹 영상을 획득하고; 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하고; 상기 마킹 대상과 그와 대응하는 상기 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정하며; 그 중에서, 상기 마킹 처리 모델은 상기 마킹 영상에서 마킹 영역을 축소하는데 사용된다. 이 마킹 방법은 마킹 영상에서 마킹 영역을 축소하고, 마킹 범위를 줄이고, 마킹 효율성을 향상시킬 수 있으며; 또한, 노동 강도를 줄이고, 마킹 인원의 건강에 미치는 영향을 줄이며, 동시에 마킹의 오류율을 줄일 수 있다.
첨부 도면은 이 개시의 실시예에 대한 이해를 돕기 위해 제공되고, 명세서의 일부를 구성하며, 이 개시의 실시예와 함께 이 개시를 해석하기 위해 사용되는 것으로, 이 개시를 제한하는 것이 아니다. 첨부 도면을 참조하여 상세한 예시적인 실시예를 설명함으로써, 상기 및 기타 특징 및 장점이 이 분야의 기술자에게 더욱 명백해질 것이다. 첨부 도면에서:
도 1은 이 개시의 제1 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법의 흐름도이다.
도 2는 이 개시의 제1 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법에서 102 단계의 흐름도이다.
도 3은 이 개시의 실시예에서 마킹 대상이 차량인 마킹 개략도이다.
도 4는 이 개시의 실시예에서 마킹 대상이 차량인 마킹 개략도이다.
도 5는 이 개시의 실시예에서 마킹 대상이 교통 표지인 마킹 개략도이다.
도 6은 이 개시의 제2 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법의 흐름도이다.
도 7은 이 개시의 제3 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법의 흐름도이다.
도 8은 이 개시의 제4 실시예에 따른 내비게이션 표적의 마킹 장치의 기능 블록도이다.
도 9는 이 개시의 제4 실시예에 의해 제공되는 내비게이션 표적 마킹 장치에서 마킹 영역 축소 모듈의 기능 블록도이다.
도 10은 이 개시의 제5 실시예에 따른 내비게이션 표적의 마킹 장치의 기능 블록도이다.
도 11은 이 개시의 제6 실시예에 따른 내비게이션 표적의 마킹 장치의 기능 블록도이다.
도 12는 이 개시의 실시예에 의해 제공되는 전자 기기의 구성 블록도이다.
이 분야의 기술자가 이 개시의 기술 방안을 보다 잘 이해할 수 있도록 하기 위해, 다음은 첨부 도면을 참조하여 이 개시에 의해 제공되는 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램 제품에 대해 상세하게 설명한다.
이하에서 첨부 도면을 참조하여 예시적인 실시예를 보다 상세하게 설명하지만, 예시적인 실시예는 다른 형태로 구현될 수 있으며, 여기에서 설명하는 실시예로 제한하는 것으로 해석해서는 안 된다. 달리 말하면, 이러한 실시예를 제공하는 목적은 이 개시를 철저하고 완전하게 만들고, 또한 이 분야의 기술자가 이 개시의 범위를 완전히 이해할 수 있도록 하는 것이다.
상충되지 않는 한, 이 개시의 실시예 및 실시예 중의 각 특징은 서로 결합될 수 있다.
이 명세서에서 사용되는 용어 "및/또는"은 하나 이상의 관련된 나열된 항목의 임의의 조합 및 모든 조합을 포함한다.
이 명세서에서 사용된 용어는 특정 실시예를 설명하기 위해서만 사용되며, 이 개시를 제한하려는 의도는 아니다. 이 명세서에서 사용된 바와 같이, 단수 형태의 "하나" 및 "그"는 문맥상 명백하게 달리 지시하지 않는 한 복수 형태를 포함하도록 의도된다. 또한 이 명세서에서 "포함하는" 및/또는 "구성되는"이라는 용어가 사용될 때, 설명된 특징, 전체, 단계, 조작, 요소 및/또는 구성 요소의 존재를 지정하는 것이지만, 하나 이상의 다른 특징, 전체, 단계, 조작, 요소, 구성 요소 및/또는 그 그룹의 존재 또는 추가를 배제하지 않는다는 것을 이해할 것이다.
달리 정의되지 않는 한, 여기서 사용되는 모든 용어의 의미(기술 용어 및 과학 용어를 포함)는 이 분야의 기술자가 일반적으로 이해하는 것과 동일하다. 또한 일반적으로 사용되는 사전에서 정의된 용어와 같은 용어는 관련 기술 및 이 개시의 배경에서의 의미와 일치되는 의미를 갖는 것으로 해석되어야 하며, 또한 이 명세서가 명확하게 정의하지 않는 한 이상화되거나 과도하게 형식적인 의미를 갖는 것으로 해석하지 않아야 한다는 것을 이해할 것이다.
이 개시의 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법 및 장치는, 내비게이션 데이터를 사전 처리하여, 수동 마킹을 지원하고, 마킹 효율을 개선하며, 인건비 및 건강에 대한 영향을 감소시킨다.
제1 양태에서, 이 개시의 실시예는 내비게이션 표적의 마킹 방법을 제공한다. 이 마킹 방법은 수동 마킹을 지원하고, 수동 마킹의 범위를 줄이고, 수동 마킹의 노동 강도를 줄이고, 마킹 효율성을 개선하고, 마킹 오류율을 줄일 수 있다.
도 1은 이 개시의 제1 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법의 흐름도이다. 도 1을 참조하면, 내비게이션 표적의 마킹 방법은 다음을 포함한다.
101 단계: 마킹 영상을 획득한다.
AR 내비게이션 과정에서는, 차량에 설치된 적어도 하나의 카메라를 이용하여 현재 주행 환경의 실제(real world) 영상, 즉 차량 주변의 영상을 실시간으로 수집 할 수 있으며, 각 실제 영상을 마킹 영상으로 활용할 수 있다. 현재 수집된 차량 주변의 영상에는 여러 개의 마킹 표적이 있을 수 있으며 이러한 마킹 표적은 서로 다른 카테고리에 속한다. 예를 들어, 차량, 보행자, 교통 표지, 도로, 건물 등의 카테고리이다. 다른 카테고리의 마킹 표적은 특성이 서로 다르기 때문에, 마킹 영상에 대해 마킹을 수행하기 전에, 마킹 카테고리에 따라 다른 마킹 영역을 결정하고, 또한 다른 방법을 채택해야 한다.
102 단계: 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소한다.
이 개시의 실시예에서, 서로 다른 마킹 대상이 마킹 영상에서 서로 다른 영역에 나타날 확률은 다르기 때문에, 사람들이 마킹 영상을 주목하는 영역도 다르다. 따라서, 이 개시의 실시예는 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소한다.
예를 들어, 마킹 대상이 차량인 경우, 차량이 마킹 영상의 중앙 영역에 나타날 확률은 가장자리 영역보다 크다. 마킹 대상이 교통 표지인 경우, 교통 표지가 마킹 영상의 가장자리 영역에 나타날 확률은 중앙 영역보다 크다.
103 단계: 마킹 대상과 그와 대응하는 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정한다.
103 단계에서, 마킹 대상이 마킹 영상에서 나타날 확률과 마킹 영상에서 서로 다른 영역에 대한 사람들의 관심이 다르기 때문에, 마킹 대상과 마킹 영역 사이에는 대응 관계가 존재한다. 따라서 마킹 대상과 그와 대응하는 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정한다. 그 중 마킹 처리 모델은 아래에서 설명한다.
이 개시의 실시예에서, 마킹 대상과 마킹 영역에 기반하여 서로 다른 마킹 대상에 대한 마킹 처리 모델을 설정하여 마킹 영상에서 마킹 영역을 축소할 수 있어, 추가적인 수동 마킹의 작업량을 줄이고, 노동 강도를 줄이고, 마킹 효율성을 향상시킬 수 있다.
도 2는 이 개시의 제1 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법에서 102 단계의 흐름도이다. 도 2에 도시된 바와 같이, 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소하는 것은 다음을 포함한다:
201 단계: 마킹 영상에서 소실점을 결정한다.
현실에서, 철도의 두 레일이 수평선에서 수렴하는 것처럼, 육안으로 평행선이 소실점에서 수렴하는 것을 관찰할 수 있다. 따라서, 이 개시의 실시예에서 소실점은 2개 이상의 대표적인 평행선이 수렴될 때까지 먼 수평선(HORIZON LINE) 방향으로 연장된 그 점이다.
201 단계에서, 마킹 영상에서 소실점을 결정한다. 그 중에서, 마킹 영상에서 소실점은 Hough 변환 또는 RANSAC 방법으로 검출하여 결정할 수 있다. 예를 들어: 두 개의 직선을 무작위로 선택하여 가상의 소실점을 만든 다음, 이 가상의 소실점을 통과하는 직선의 수를 계산한다. 일정 횟수의 반복 후, 반환 값은 교차하는 직선의 수를 최대화할 수 있는 소실점이다.
202 단계: 소실점과 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정한다.
마킹 대상이 다르기 때문에, 최저 마킹점과 최고 마킹점의 위치가 다르다. 따라서, 202 단계에서, 최저 마킹점과 최고 마킹점을 통해 마킹 영역을 결정한다.
일부 실시예에서, 마킹 영상이 촬영되는 각도가 다르기 때문에, 마킹 영상에서 소실점 위치가 다르다. 따라서, 202 단계에서, 소실점과 마킹 대상을 통해 최저 마킹점과 최고 마킹점을 결정한 다음, 최저 마킹점과 최고 마킹점으로부터 마킹 영역을 결정한다.
203 단계: 최저 마킹점과 최고 마킹점으로 둘러싸인 폐쇄 영역을 마킹 영역으로 결정한다.
203 단계에서, 최저 마킹점과 최고 마킹점으로 둘러싸인 영역을 마킹 영역으로 결정한다.
다음은 서로 다른 마킹 대상에 대해 마킹 영상에서 최저 마킹점과 최고 마킹점을 결정하는 방법을 자세히 설명한다.
도 3은 이 개시의 실시예에서 마킹 대상이 차량인 마킹 개략도이다. 도 3에서, 관찰자 또는 카메라의 각도를 좌표로 사용하며, 관찰자의 좌측은 마킹 영상의 좌측이고, 관찰자의 우측은 마킹 영상의 우측이고, 관찰자의 시선의 상방(지면의 상변)은 마킹 영상의 상측이고, 관찰자의 시선의 하방(지면의 하변)은 마킹 영상의 하측이다.
도 3에 도시된 바와 같이, 마킹 대상이 차량인 경우, 최저 마킹점은 마킹 영상의 하변(하측변)이 좌측변과 교차하는 제1 교차점(A)과, 하변이 우측변과 교차하는 제2 교차점(B)을 포함한다. 최고 마킹점은 소실점(O)과 제1 교차점(A)의 연결선(OA)이 원단선(GH)과 교차하는 제3 교차점(G)과, 소실점(O)과 제2 교차점(B)의 연결선(OB)이 원단선(GH)과 교차하는 제4 교차점(H)을 포함한다.
그 중에서, 원단선(GH)은 마킹 영상의 하변에 평행하고, 또한 마킹 영상의 하변과 사전 설정 거리(S)만큼 떨어진 선이다. 일부 실시예에서, 사전 설정 거리(S)는 실제 조건에 따라 설정될 수 있으며, 예를 들어 사전 설정 거리(S)는 20m, 30m 또는 50m이다. 마킹 영상에서 사전 설정 거리(S)의 실제 크기는 기존의 방법에 의해 결정될 수 있으며, 이 개시의 실시예에서 제한되지 않는다.
마킹 대상이 차량인 경우, 최저 마킹점은 제1 교차점(A)과 제2 교차점(B)을 포함하고, 최고 마킹점은 제3 교차점(G)과 제4 교차점(H)을 포함한다는 것을 이해하는 것은 어렵지 않다. 따라서 마킹 영역은 제1 교차점(A), 제2 교차점(B), 제3 교차점(G) 및 제4 교차점(H)으로 둘러싸인 사다리꼴 ABGH 영역인 마킹 영역이다. 마킹 영상에 대해 추가로 마킹을 하는 경우, 마킹 영역 ABGH 이외의 다른 영역은 코딩 처리되고, 마킹 영역 ABGH에 대해서만 마킹을 수행하므로, 마킹 영역이 크게 축소된다.
도 4는 이 개시의 실시예에서 마킹 대상이 차량인 마킹 개략도이다. 도 4에서, 마킹 영상의 좌측, 우측, 상측 및 하측은 도 3에서 정의된 것과 동일하므로, 여기서 반복 설명하지 않는다.
도 4에 도시된 바와 같이, 마킹 대상이 보행자인 경우, 최저 마킹점은 마킹 영상의 하변이 좌측변과 교차하는 제1 교차점(A)과, 하변이 우측변과 교차하는 제2 교차점(B)을 포함한다. 최고 마킹점은 높이선(OC)이 마킹 영상의 좌측변과 교차하는 제3 교차점(C)과, 높이선(OD)이 마킹 영상의 우측변과 교차하는 제4 교차점(D)을 포함한다.
그 중에서, 높이선(OC, OD)은 소실점(O)을 통과하고, 또한 지면과 사전 설정 높이만큼 떨어진 선이다. 일부 실시예에서, 사전 설정 높이는 실제 조건에 따라 설정될 수 있으며, 예를 들어, 사전 설정 높이는 1.8m, 2m 또는 2.3m이다. 마킹 영상에서, 주목되는 보행자는 기본적으로 높이선(OC, OD) 아래에 있다. 마킹 영상에서 사전 설정 높이의 실제 크기는 기존 방식으로 결정될 수 있으며, 이 개시의 실시예에서는 제한되지 않는다.
마킹 대상이 보행자인 경우, 최저 마킹점은 제1 교차점(A)과 제2 교차점(B)을 포함하고, 최고 마킹점은 제3 교차점(C)과 제4 교차점(D)을 포함한다는 것을 이해하는 것은 어렵지 않다. 따라서, 마킹 영역은 제1 교차점(A), 제2 교차점(B), 제3 교차점(C) 및 제4 교차점(D)으로 둘러싸인 ABCD 영역인 마킹 영역이다. 마킹 영상에 대해 추가로 마킹을 하는 경우, 마킹 영역 ABCD 이외의 다른 영역은 코딩 처리되고, 마킹 영역 ABCD에 대해서만 마킹을 수행하므로, 마킹 영역이 크게 축소된다.
도 5는 이 개시의 실시예에서 마킹 대상이 교통 표지인 마킹 개략도이다. 도 5에서 마킹 영상의 좌측, 우측, 상측 및 하측은 도 3에서 정의된 것과 동일하므로, 여기서 반복 설명하지 않는다.
도 5에 도시된 바와 같이, 마킹 대상이 교통 표지인 경우, 최저 마킹점은 제1 높이선(OE)이 마킹 영상의 좌측변과 교차하는 제1 교차점(E)과, 제1 높이선(OF)이 마킹 영상의 우측변과 교차하는 제2 교차점(F)을 포함한다; 최고 마킹점은 제2 높이선(OG)이 마킹 영상의 가장자리와 교차하는 제3 교차점(G)과, 제2 높이선(OH)이 마킹 영상의 가장자리와 교차하는 제4 교차점(H)을 포함한다.
그 중에서, 제1 높이선(OE, OF)은 소실점(O)을 통과하고 또한 지면과 제1 사전 설정 높이(H1)만큼 떨어진 선이고, 제2 높이선(OG, OH)은 소실점(O)을 통과하고 또한 지면과 제2 사전 설정 높이(H2)만큼 떨어진 선이며, 제1 사전 설정 높이(H1)는 제2 사전 설정 높이(H2)보다 작다. 일부 실시예에서, 제1 사전 설정 높이(H1) 및 제2 사전 설정 높이(H2)는 실제 조건에 따라 설정될 수 있다. 예를 들어, 제1 사전 설정 높이(H1)는 1.5m이고, 제2 사전 설정 높이(H2)는 2m이다. 마킹 영상에서, 주목되는 교통 표지는 기본적으로 1.5 미터 ~ 2 미터 사이이다. 마킹 영상에서 제1 사전 설정 높이(H1) 및 제2 사전 설정 높이(H2)의 실제 크기는 기존 방식으로 결정될 수 있으며, 이 개시의 실시예에서는 제한되지 않는다.
마킹 대상이 교통 표지인 경우, 최저 마킹점은 제1 교차점(E)과 제2 교차점(F)을 포함하고, 최고 마킹점은 제3 교차점(G)과 제4 교차점(H)을 포함한다는 것을 이해하는 것은 어렵지 않다. 따라서 마킹 영역은 제1 교차점(E), 제2 교차점(F), 제3 교차점(G) 및 제4 교차점(H)으로 둘러싸인 EFGH 영역인 마킹 영역이다. 마킹 영상에 대해 추가로 마킹을 하는 경우, 마킹 영역 EFGH 이외의 다른 영역은 코딩 처리되고, 마킹 영역 EFGH에 대해서만 마킹을 수행하므로, 마킹 영역이 크게 축소된다.
제3 교차점(G)은 마킹 영상의 좌측변에 있을 수 있고, 마킹 영상의 상변(상측변)에 있을 수도 있으며, 제4 교차점(H)은 마킹 영상의 우측변에 있을 수 있고, 마킹 영상의 상변에 있을 수도 있다. 제3 교차점(G)과 제4 교차점(H)이 마킹 영상의 상변에 있을 때, 제1 교차점(E), 제2 교차점(F), 제3 교차점(G) 및 제4 교차점(H)이 둘러싸는 EFGH 영역이 CDEF 영역으로 확장되어, CDEF 영역이 마킹 영역으로 될 수도 있다.
위의 세 가지 종류의 마킹 영역 선택은 동일한 수집 환경의 데이터 세트에 일괄적으로 적용될 수 있음을 유의해야 한다. 즉, 동일한 카메라로 수집된 마킹 영상은 마킹 영역을 축소하기 위해 전술한 마킹 영역의 선택에 적합하다.
일부 실시예에서, 마킹 대상과 그와 대응되는 마킹 영역에 따라 마킹 처리 모델을 설정하고, 또한 마킹 처리 모델에 기반하여 마킹 영역의 히트 맵을 획득하고; 마지막으로, 히트 맵에 기반하여 영상에서 마킹 영역의 표적을 마킹한다.
마킹 대상이 차량인 경우, 마킹 대상과 그와 대응되는 마킹 영역에 따라 어텐션 모델을 설정한다. 어텐션 모델을 사용하여 어텐션 히트 맵을 그리고, 또한 히트 맵에 기반하여 마킹 영역의 표적에 대해 마킹을 수행한다.
예를 들어, 어텐션 히트 맵은 어텐션 모델을 기반으로 그려지며, 어텐션 히트 맵은 마킹 영상의 마킹에 더 유리하다. 어텐션 히트 맵에서는, 빨간색 영역에 가까울수록 차량이 나타날 가능성이 높아져서 마킹의 노동 강도가 감소한다.
마킹 대상이 보행자인 경우, 보행자 및 보행자 마킹 영역에 따라 보행자와 매칭되는 보행자 마킹 모델을 설정한다.
SVM(Support Vector Machine) 모델과 결합된 HOG(Histogram of Oriented Gradient)를 통해 보행자에 대해 사전 마킹을 수행한다. 구체적으로, 1000 개의 양성 샘플과 1000 개의 음성 샘플을 학습 샘플로 사용한 후, 특징 추출을 수행하여 샘플의 HOG 특징을 계산하고, 마지막으로 HOG 특징을 SVM 입력으로 사용하여 모델 학습을 수행하여, 보행자 마킹 모델을 획득한다.
마킹 대상이 교통 표지인 경우, 색상 모델에 따라 교통 표지 모델을 생성한다. 즉, 색상과 모양에 따라 교통 표지의 종류를 인식한다. 예를 들어 빨간색 원은 금지 종류의 교통 표지이고, 노란색 삼각형은 경고 종류의 교통 표지, 파란색 사각형은 지시 종류의 교통 표지이다. 구체적으로, 색상 모델(Hue, Saturation, Value, HSV로 약칭함)을 통해 빨간색, 노란색, 파란색 영역을 선택하고, 또한 이 3가지가 아닌 색상 영역에 대해 코딩 처리(검정 또는 흰색을 설정)를 수행한 다음, 각 영역의 모양을 계산하고, 모양과 색상에 따라 교통 표지를 마킹한다. 예를 들어, 모양이 원형이고 색상이 빨간색이면, 그 영역은 대략적으로 금지 종류의 교통 표지로 마킹한다. 모양이 삼각형이고 색상이 노란색이면, 그 영역은 대략적으로 경고 종류의 교통 표지로 마킹한다. 모양이 직사각형이고 색상이 파란색이면, 그 영역은 대략적으로 지시 종류의 교통 표지로 마킹한다.
도 6은 이 개시의 제2 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법의 흐름도이다. 도 6을 참조하면, 내비게이션 표적의 마킹 방법은 다음과 같다:
601 단계: 마킹 영상을 획득한다.
그 중에서, 마킹 영상을 획득하는 단계는 제1 실시예에서 101 단계와 동일하므로, 여기서 반복 설명하지 않는다.
602 단계: 마킹 영상에서 근사 영상을 제외한다.
실제 응용에서, 카메라로 획득한 마킹 영상은 유사성이 비슷한 영상이 많이 존재하므로, 마킹 전에, 유사성이 유사성 임계 값 이내에 도달한 마킹 영상을 제외할 수 있어, 마킹 영상 수를 줄이고 마킹의 효율성을 높일 수 있다.
602 단계에서, 차이 값 해시 알고리즘을 사용하여 모든 마킹 영상 간의 해밍 거리를 계산하고, 유사성 임계 값은 해밍 거리이며, 해밍 거리가 [S1, S2] 구간 내에 있는 영상을 근사 영상으로 설정한다.
예를 들어, 유사성 임계 값을 해밍 거리 S1=0, S2=10으로 설정하고, 모든 마킹 영상의 해밍 거리를 계산하고, 해밍 거리가 [0, 10] 이내인 마킹 영상을 근사 영상으로 간주한다. 근사 영상을 제외하고, 근사 영상 중 하나만 마킹 영상으로 유지한다.
603 단계: 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소한다.
그 중에서, 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소하는 단계는 제1 실시예에서 102 단계와 동일하므로, 여기서 반복 설명하지 않는다.
604 단계: 마킹 대상과 그와 대응하는 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정한다; 그 중에서, 마킹 처리 모델은 마킹 영상에서 마킹 영역을 축소하는데 사용된다.
그 중에서, 마킹 처리 모델을 설정하는 단계는 제1 실시예에서 103 단계와 동일하므로, 여기서 반복 설명하지 않는다.
도 7은 이 개시의 제3 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법의 흐름도이다. 도 7을 참조하면, 내비게이션 표적의 마킹 방법은 다음을 포함한다:
701 단계: 마킹 영상을 획득한다.
701 단계에서, 마킹 영상을 획득하는 단계는 제1 실시예에서 101단계와 동일하므로, 여기서 반복 설명하지 않는다.
702 단계: 마킹 영상에서 근사 영상을 제외한다.
702 단계에서, 근사 영상을 제외하는 단계는 제2 실시예에서 602단계와 동일하므로, 여기서 반복 설명하지 않는다.
703 단계: 마킹 영상이 위치한 경도 및 위도 정보를 획득한다.
703단계에서, 차량은 카메라와 포지셔닝 시스템을 장착하고, 카메라를 사용하여 마킹 영상을 획득하고, 포지셔닝 시스템은 마킹 영상이 위치한 경도 및 위도 정보를 획득할 수 있다. 그 중에서, 포지셔닝 시스템은 일반적인 포지셔닝 시스템을 채택할 수 있으며, 이 개시는 이에 대해 제한하지 않는다.
704 단계: 경도 및 위도 정보에 기반하여 마킹 대상을 결정한다.
704 단계에서, 경도 및 위도 정보에 따라 마킹 영상의 장면을 결정하고, 장면에 따라 마킹 대상을 결정함으로써, 마킹 대상을 줄이고 마킹의 효율성을 높일 수 있다.
예를 들어, 경도 및 위도 정보에 따라 마킹 영상의 장면이 교외 또는 더 먼 곳이라고 판단되면, 마킹 대상은 교통 표지 및 차량일 수 있다. 경도 및 위도 정보에 따라 마킹 영상의 장면이 도시 지역이라고 판단되면, 마킹 대상은 보행자, 차량 및 교통 표지일 수 있다.
705 단계: 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소한다.
705 단계에서, 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소하는 단계는 제1 실시예에서 102단계와 동일하므로, 여기서 반복 설명하지 않는다.
706 단계: 마킹 대상과 그와 대응하는 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정한다. 그 중에서, 마킹 처리 모델은 마킹 영상에서 마킹 영역을 축소하는데 사용된다.
706 단계에서, 마킹 처리 모델의 설정 단계는 제1 실시예에서 103와 동일하므로, 여기서 반복 설명하지 않는다.
이 개시의 실시예에서, 마킹 영상에서 근사 영상을 제외하는 것을 402단계로 설정하고, 마킹 영상이 위치한 경도 및 위도 정보를 획득하는 것을 403단계로 설정하였지만, 이 개시의 실시예는 이에 제한되지 않으며, 402 단계 및 403 단계의 순서 변경도 이 개시의 보호 범위에 속한다는 점에 유의해야 한다.
이 개시의 실시예에 의해 제공되는 내비게이션 표적의 마킹 방법은, 마킹 영상을 획득하고; 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소하고; 마킹 대상과 그와 대응하는 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정하며; 그 중에서, 마킹 처리 모델은 마킹 영상에서 마킹 영역을 축소하는데 사용된다. 이 마킹 방법은 마킹 영상에서 마킹 영역을 축소하고, 마킹 범위를 줄이고, 마킹 효율성을 향상시킬 수 있으며; 또한, 노동 강도를 줄이고, 마킹 인원의 건강에 미치는 영향을 줄이며, 동시에 마킹의 오류율을 줄일 수 있다.
제2 양태에서, 이 개시의 제4 실시예는 내비게이션 표적 마킹 장치를 제공하며, 이 마킹 장치는 수동 마킹을 지원하고, 수동 마킹의 범위를 줄이고, 수동 마킹의 노동 강도를 줄이고, 마킹 효율성을 개선하며, 마킹의 오류율을 감소시킬 수 있다.
도 8은 이 개시의 제4 실시예에 따른 내비게이션 표적의 마킹 장치의 기능 블록도이다. 도 8을 참조하면, 내비게이션 표적의 마킹 장치는 다음을 포함한다:
획득 모듈(801)은, 마킹 영상을 획득하는데 사용된다.
획득 모듈(801)이 마킹 영상을 획득하는 방법은 제1 실시예에서 101 단계의 방법과 동일하므로, 여기서 반복 설명하지 않는다.
마킹 영역 축소 모듈(802)은, 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소하는데 사용된다.
서로 다른 마킹 대상이 마킹 영상에서 서로 다른 영역에 나타날 확률은 다르기 때문에, 사람들이 마킹 영상을 주목하는 영역도 다르다. 따라서, 마킹 영역 축소 모듈(802)은 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소한다.
예를 들어, 마킹 대상이 차량인 경우, 차량이 마킹 영상의 중앙 영역에 나타날 확률은 가장자리 영역보다 크다. 마킹 대상이 교통 표지인 경우, 교통 표지가 마킹 영상의 가장자리 영역에 나타날 확률은 중앙 영역보다 크다.
마킹 처리 모델 획득 모듈(803)은, 마킹 대상과 그와 대응하는 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정하는데 사용되며; 그 중에서, 마킹 처리 모델은 마킹 영상에서 마킹 영역을 축소하는데 사용된다.
도 9는 이 개시의 제4 실시예에 의해 제공되는 내비게이션 표적의 마킹 장치에서 마킹 영역 축소 모듈의 기능 블록도이다. 도 9에 도시된 바와 같이, 마킹 영역 축소 모듈은 다음을 포함한다:
소실점 결정 유닛(901)은, 마킹 영상에서 소실점을 결정하는데 사용된다.
마킹 영상에서 소실점은 Hough 변환 또는 RANSAC 방법으로 검출하여 결정할 수 있다. 예를 들어: 두 개의 직선을 무작위로 선택하여 가상의 소실점을 만든 다음, 이 가상의 소실점을 통과하는 직선의 수를 계산한다. 일정 횟수의 반복 후, 반환 값은 교차하는 직선의 수를 최대화할 수 있는 소실점이다.
마킹점 결정 유닛(902)은, 소실점 및 마킹 대상에 기반하여 최저 마킹점 및 최고 마킹점을 결정하는데 사용된다.
그 중에서, 마킹점 결정 유닛(902)은 최저 마킹점 서브 유닛과 최고 마킹점 서브 유닛을 포함하고, 또한, 최저 마킹점 서브 유닛 및 최고 마킹점 서브 유닛의 마킹 방법은 마킹 대상과 관련된다.
일부 실시예에서, 최저 마킹점 서브 유닛은, 마킹 대상이 차량인 경우, 마킹 영상의 하변이 좌측변과 교차하는 제1 교차점(A)과, 하변이 우측변과 교차하는 제2 교차점(B)을 최저 마킹점으로 마킹하는데 사용된다.
최고 마킹점 서브 유닛은, 마킹 대상이 차량인 경우, 소실점(O)과 제1 교차점(A)의 연결선(OA)이 원단선(GH)과 교차하는 제3 교차점(G)과, 소실점(O)과 제2 교차점(B)의 연결선(OB)이 원단선(GH)과 교차하는 제4 교차점(H)을 최고 마킹점으로 마킹하는데 사용된다.
그 중에서, 원단선(GH)은 마킹 영상의 하변에 평행하고, 또한 마킹 영상의 하변과 사전 설정 거리(S)만큼 떨어진 선이다.
일부 실시예에서, 최저 마킹점 서브 유닛은, 마킹 대상이 보행자인 경우, 마킹 영상의 하변이 좌측변과 교차하는 제1 교차점(A)과, 하변이 우측변과 교차하는 제2 교차점(B)을 최저 마킹점으로 마킹하는데 사용된다;
최고 마킹점 서브 유닛은, 마킹 대상이 보행자인 경우, 높이선(OC)이 마킹 영상의 좌측변과 교차하는 제3 교차점(C)과, 높이선(OD)이 마킹 영상의 우측변과 교차하는 제4 교차점(D)을 최저 마킹점으로 마킹하는데 사용된다.
그 중에서, 높이선(OC, OD)은 소실점(O)을 통과하고, 또한 지면과 사전 설정 높이만큼 떨어진 선이다.
일부 실시예에서, 최저 마킹점 서브 유닛은, 마킹 대상이 교통 표지인 경우, 제1 높이선(OE)이 마킹 영상의 좌측변과 교차하는 제1 교차점(E)과, 제1 높이선(OF)이 마킹 영상의 우측변과 교차하는 제2 교차점(F)을 최저 마킹점으로 마킹하는데 사용된다;
최고 마킹점 서브 유닛은, 제2 높이선(OG)이 마킹 영상의 가장자리와 교차하는 제3 교차점(G)과, 제2 높이선(OH)이 마킹 영상의 가장자리와 교차하는 제4 교차점(H)을 최저 마킹점으로 마킹하는데 사용된다.
그 중에서, 제1 높이선(OE, OF)은 소실점(O)을 통과하고 또한 지면과 제1 사전 설정 높이(H1)만큼 떨어진 선이고, 제2 높이선(OG, OH)은 소실점(O)을 통과하고 또한 지면과 제2 사전 설정 높이(H2)만큼 떨어진 선이며, 제1 사전 설정 높이(H1)는 제2 사전 설정 높이(H2)보다 작다.
마킹 영역 축소 유닛(903)은, 최저 마킹점 및 최고 마킹점으로 둘러싸인 폐쇄 영역을 마킹 영역으로 결정하는데 사용된다.
일부 실시예에서, 마킹 대상이 차량인 경우, 마킹 영역 감소 유닛(903)은 제1 교차점(A)과 제2 교차점(B)을 최저 마킹점으로 마킹하고, 제3 교차점(G)과 제4 교차점(H)을 최고 마킹점으로 마킹한다. 따라서, 마킹 영역은 제1 교차점(A), 제2 교차점(B), 제3 교차점(G) 및 제4 교차점(H)으로 둘러싸인 사다리꼴 ABGH 영역인 마킹 영역이다.
마킹 대상이 보행자인 경우, 마킹 영역 감소 유닛(903)은 제1 교차점(A)과 제2 교차점(B)을 최저 마킹점으로 마킹하고, 제3 교차점(C)과 제4 교차점(D)을 최고 마킹점으로 마킹한다. 따라서, 마킹 영역은 제1 교차점(A), 제2 교차점(B), 제3 교차점(C) 및 제4 교차점(D)으로 둘러싸인 ABCD 영역인 마킹 영역이다.
마킹 대상이 교통 표지인 경우, 마킹 영역 감소 유닛(903)은 제1 교차점(E)과 제2 교차점(F)을 최저 마킹점으로 마킹하고, 제3 교차점(G)과 제4 교차점(H)을 최고 마킹점으로 마킹한다. 따라서, 마킹 영역은 제1 교차점(E), 제2 교차점(F), 제3 교차점(G) 및 제4 교차점(H)으로 둘러싸인 EFGH 영역인 마킹 영역이다.
일부 실시예에서, 마킹 처리 모델 획득 모듈(803)은 또한 마킹 대상이 차량인 경우 마킹 대상과 그와 대응하는 마킹 영역에 기반하여 어텐션 모델을 설정하는데 사용된다.
일부 실시예에서, 내비게이션 표적의 마킹 장치는 히트 맵 생성 모듈을 더 포함하는데, 이 모듈은 마킹 영상의 마킹을 용이하게 하기 위해 어텐션 모델을 사용하여 마킹 영역에 대해 마킹을 수행하여 어텐션 히트 맵을 획득하는데 사용된다. 어텐션 히트 맵에서는, 빨간색 영역에 가까울수록 차량이 나타날 가능성이 높아져서 마킹의 노동 강도가 감소한다.
일부 실시예에서, 마킹 처리 모델 획득 모듈(803)은 또한 마킹 대상이 보행자인 경우 보행자 및 보행자 마킹 영역에 따라 보행자와 매칭되는 보행자 마킹 모델을 설정하는데 사용된다.
일부 실시예에서, 마킹 처리 모델 획득 모듈(803)은 또한 마킹 대상이 교통 표지인 경우, 색상 모델에 따라 교통 표지 모델을 생성한다. 즉, 색상과 모양에 따라 교통 표지의 종류를 인식한다. 예를 들어 빨간색 원은 금지 종류의 교통 표지이고, 노란색 삼각형은 경고 종류의 교통 표지이고, 파란색 사각형은 지시 종류의 교통 표지이다.
도 10은 이 개시의 제5 실시예에 따른 내비게이션 표적의 마킹 장치의 기능 블록도이다. 도 10을 참조하면, 내비게이션 표적 마킹 장치는 획득 모듈(1001), 근사 영상 제외 모듈(1002), 마킹 영역 축소 모듈(1003) 및 마킹 처리 모델 획득 모듈(1004)을 포함한다. 그 중에서, 획득 모듈(1001), 마킹 영역 축소 모듈(1003) 및 마킹 처리 모델 획득 모듈(1004)의 기능과 작용은 제4 실시예의 획득 모듈(801), 마킹 영역 축소 모듈(802) 및 마킹 처리 모델 획득 모듈(803)과 동일하므로, 여기서 반복 설명하지 않는다. 아래에서는 다른 부분만 자세히 설명한다.
근사 영상 제외 모듈(1002)은 마킹 영상에서 근사 영상을 제외하는데 사용된다. 근사 영상 제외 모듈(1002)은 차이 값 해시 알고리즘을 사용하여 모든 마킹 영상 간의 해밍 거리를 계산하고, 유사성 임계 값은 해밍 거리이며, 해밍 거리가 [S1, S2] 구간 내에 있는 영상을 근사 영상으로 설정한다.
예를 들어, 유사성 임계 값을 해밍 거리 S1=0, S2=10으로 설정하고, 모든 마킹 영상의 해밍 거리를 계산하고, 해밍 거리가 [0, 10] 이내에 있는 마킹 영상을 근사 영상으로 간주한다. 근사 영상을 제외하고, 근사 영상 중 하나만 마킹 영상으로 유지한다.
도 11은 이 개시의 제6 실시예에 따른 내비게이션 표적의 마킹 장치의 기능 블록도이다. 도 11을 참조하면, 내비게이션 표적 마킹 장치는 획득 모듈(1101), 근사 영상 제외 모듈(1102), 경도 및 위도 결정 모듈(1103), 마킹 대상 결정 모듈(1104), 마킹 영역 축소 모듈(1105) 및 마킹 처리 모델 획득 모듈(1106)을 포함한다. 그 중에서, 획득 모듈(1101), 마킹 영역 축소 모듈(1105) 및 마킹 처리 모델 획득 모듈(1106)의 기능과 작용은 제4 실시예의 획득 모듈(801), 마킹 영역 축소 모듈(802) 및 마킹 처리 모델 획득 모듈(803)과 동일하며, 근사 영상 제외 모듈(1102)의 기능은 제5 실시예의 근사 영상 제외 모듈(1002)과 동일하므로, 여기서 반복 설명하지 않는다. 아래에서는 다른 부분만 자세히 설명한다.
이 개시의 실시예에서, 경도 및 위도 결정 모듈(1103)은, 마킹 영상이 위치한 경도 및 위도 정보를 획득하는데 사용된다.
그 중에서, 경도 및 위도 정보는 차량에 탑재된 포지셔닝 시스템에 의해 결정될 수 있으며, 이 개시는 이에 대해 제한하지 않는다.
마킹 대상 결정 모듈(1105)은, 경도 및 위도 정보에 기반하여 마킹 대상을 결정하는데 사용된다.
일부 실시예에서, 마킹 대상 결정 모듈(1105)은 경도 및 위도 정보에 따라 마킹 영상의 장면을 결정하고, 장면에 따라 마킹 대상을 결정하고, 마킹 대상을 줄여, 마킹의 효율성을 향상시킬 수 있다.
예를 들어, 경도 및 위도 정보에 따라 마킹 영상의 장면이 교외 또는 더 먼 곳이라고 판단되면, 마킹 대상은 교통 표지 및 차량일 수 있다. 경도 및 위도 정보에 따라 마킹 영상의 장면이 도시 지역이라고 판단되면, 마킹 대상은 보행자, 차량 및 교통 표지일 수 있다.
이 개시의 실시예에 의해 제공되는 내비게이션 표적의 마킹 장치는, 획득 모듈을 사용하여 마킹 영상을 획득하고; 마킹 영역 축소 모듈은 마킹 대상에 기반하여 마킹 영상에서 마킹 영역을 축소하고; 마킹 처리 모델 획득 모듈은 마킹 대상과 그와 대응하는 마킹 영역에 따라 마킹 대상에 매칭되는 마킹 처리 모델을 설정하며; 그 중에서, 마킹 처리 모델은 마킹 영상에서 마킹 영역을 축소하는데 사용된다. 이 마킹 장치는 마킹 영상에서 마킹 영역을 축소하고, 마킹 범위를 줄이고, 마킹 효율성을 향상시킬 수 있으며; 또한, 노동 강도를 줄이고, 마킹 인원의 건강에 미치는 영향을 줄이며, 동시에 마킹의 오류율을 줄일 수 있다.
제3 양태에서, 도 12를 참조하면, 이 개시의 하나의 실시예는 다음을 포함하는 전자 기기를 제공한다:
하나 이상의 프로세서(1201);
메모리(1202)는 그 위에 하나 이상의 프로그램을 저장하고, 하나 이상의 프로그램이 하나 이상의 프로세서에 의해 실행될 때, 하나 이상의 프로세서는 전술한 어느 하나의 내비게이션 표적의 마킹 방법을 구현한다;
하나 이상의 I/O 인터페이스(1203)는 프로세서와 메모리 사이에 연결되고, 프로세서와 메모리 사이의 정보 인터랙션을 구현하도록 구성된다.
그 중에서, 프로세서(1201)는 데이터 처리 능력을 가진 장치이고, 이는 중앙 처리 장치(CPU) 등을 포함하지만, 이에 제한되지는 않는다; 메모리(1202)는 데이터 저장 기능을 가진 장치이며, 이는 랜덤 액세스 메모리(RAM, 보다 구체적으로는 SDRAM, DDR 등), 읽기 전용 메모리(ROM), 전기적으로 소거 가능 프로그래머블 읽기 전용 메모리(EEPROM), 플래시 메모리(FLASH)를 포함하지만, 이에 제한되지는 않는다; I/O 인터페이스(읽기-쓰기 인터페이스)(1203)는 프로세서(1201)와 메모리(1202) 사이에 연결되어, 프로세서(1201)와 메모리(1202) 사이의 정보 인터랙션을 구현할 수 있으며, 이는 데이터 버스(Bus) 등을 포함하지만, 이에 제한되지는 않는다.
일부 실시예에서, 프로세서(1201), 메모리(1202) 및 I/O 인터페이스(1203)는 버스를 통해 서로 연결되고, 컴퓨팅 장치의 다른 구성 요소에 추가로 연결된다.
제4 양태에서, 이 개시의 실시예는 그 위에 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 제공하며, 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 어느 하나의 내비게이션 표적의 마킹 방법이 구현된다.
이 분야의 기술자는 위에서 개시된 방법 중의 전부 또는 일부 단계와, 시스템 및 장치 중의 기능 모듈/유닛이 소프트웨어, 펌웨어, 하드웨어 및 이들의 적절한 조합으로 구현될 수 있음을 이해할 수 있다. 하드웨어 구현에서, 위 설명에서 언급된 기능 모듈/유닛 간의 구분은 반드시 물리적 구성 요소의 구분과 일치하지는 것은 아니다; 예를 들어, 하나의 물리적 구성 요소는 여러 기능을 가질 수 있거나 하나의 기능 또는 단계가 여러 물리적 구성 요소의 협력에 의해 실행될 수 있다. 일부 물리적 구성 요소 또는 모든 물리적 구성 요소는 중앙 처리 장치, 디지털 신호 프로세서 또는 마이크로 프로세서와 같은 프로세서에 의해 실행되는 소프트웨어로 구현되거나, 하드웨어로 구현되거나 또는 전용 집적 회로와 같은 집적 회로로 구현될 수 있다. 이러한 소프트웨어는 컴퓨터 판독 가능 매체에 배포될 수 있으며, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체(또는 비 일시적 매체) 및 통신 매체(또는 일시적인 매체)를 포함할 수 있다. 이 분야의 기술자에게 잘 알려진 바와 같이, 컴퓨터 저장 매체는 정보(예를 들면, 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타데이터)를 저장하기 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성,이동식 및 비 이동식 매체를 포함한다. 컴퓨터 저장 매체에는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, 디지털 다용도 디스크(DVD) 또는 기타 광 디스크 스토리지, 자기 카세트, 자기 테이프, 자기 디스크 스토리지 또는 기타 자기 저장 장치, 또는 원하는 정보를 저장하는데 사용되며 컴퓨터에서 액세스 할 수 있는 기타 모든 매체가 포함되지만, 이에 제한되지는 않는다. 또한, 이 분야의 기술자에게 잘 알려진 바와 같이, 통신 매체는 일반적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 반송파 또는 기타 전송 메커니즘과 같은 변조된 데이터 신호의 기타데이터를 포함하고, 또한 임의의 정보 전달 매체를 포함할 수 있다.
제5 양태에서, 이 개시의 실시예는 컴퓨터 프로그램이 포함된 컴퓨터 프로그램 제품을 제공하며, 컴퓨터 프로그램이 프로세서에 의해 실행될 때 전술한 어느 하나의 내비게이션 표적의 마킹 방법을 구현한다.
이 개시의 방법을 구현하기 위한 프로그램 코드는 하나 이상의 프로그래밍 언어의 임의의 결합으로 작성될 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그램 가능 데이터 처리 장치의 프로세서 또는 컨트롤러에 제공될 수 있으므로 프로그램 코드가 프로세서 또는 컨트롤러에 의해 실행될 때 순서도 및/또는 블록 다이어그램에 지정된 기능/작업이 구현된다. 프로그램 코드는 전체적으로 기기에서 실행되거나, 부분적으로 기기에서 실행되고, 독립 소프트웨어 패키지로서 부분적으로 기기에서 실행되고 부분적으로 원격 기기에서 실행되거나, 또는 전체적으로 원격 기기 또는 서버에서 실행될 수 있다.
이 명세서에는 예시적인 실시예가 개시되고, 특정 용어가 채택되었지만, 이들은 단지 일반적인 설명적 의미로만 사용되고 해석되어야 하며, 제한적인 목적으로 사용되지는 않는다. 일부 실시예에서, 달리 명확하게 지시되지 않는 한, 특정 실시예와 결합하여 설명된 특징, 특성 및/또는 요소가 단독으로 사용될 수 있거나, 다른 실시예와 결합하여 설명된 특징, 특성 및/또는 요소의 조합이 사용될 수 있다는 것은 이 분야의 기술자에게 명백하다. 따라서, 이 분야의 기술자는 청구 범위에 의해 제시된 이 개시 내용의 범위를 벗어나지 않고 형태 및 세부 사항의 다양한 변경이 이루어질 수 있음을 이해할 수 있을 것이다.

Claims (15)

  1. 마킹 영상을 획득하고;
    마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하며;
    상기 대상 표적과 그와 대응하는 상기 마킹 영역에 따라 상기 마킹 대상에 매칭되는 마킹 처리 모델을 설정하며; 그 중에서, 상기 마킹 처리 모델은 상기 마킹 영상에서 마킹 영역을 축소하는데 사용되는 것을 포함하는, 내비게이션 표적의 마킹 방법.
  2. 청구항 1에 있어서,
    상기 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하는 것은:
    상기 마킹 영상에서 소실점을 결정하고;
    상기 소실점과 상기 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하며;
    상기 최저 마킹점과 상기 최고 마킹점으로 둘러싸인 폐쇄 영역을 상기 마킹 영역으로 결정하는 것을 포함하는, 내비게이션 표적의 마킹 방법.
  3. 청구항 2에 있어서,
    상기 소실점과 상기 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하는 것은:
    상기 마킹 대상이 차량인 경우, 상기 최저 마킹점은 상기 마킹 영상의 하변이 좌측변과 교차하는 제1 교차점과, 하변이 우측변과 교차하는 제2 교차점을 포함하고; 상기 최고 마킹점은 상기 소실점과 상기 제1 교차점의 연결선이 원단선과 교차하는 제3 교차점과, 상기 소실점과 상기 제2 교차점의 연결선이 상기 원단선과 교차하는 제4 교차점을 포함하며; 그 중에서, 상기 원단선은 상기 마킹 영상의 하변에 평행하고, 또한 상기 마킹 영상의 하변과 사전 설정 거리만큼 떨어진 선인 것을 포함하는, 내비게이션 표적의 마킹 방법.
  4. 청구항 2에 있어서,
    상기 소실점과 상기 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하는 것은:
    상기 마킹 대상이 보행자인 경우, 상기 최저 마킹점은 상기 마킹 영상의 하변이 좌측변과 교차하는 제1 교차점과, 하변이 우측변과 교차하는 제2 교차점을 포함하고; 상기 최고 마킹점은 높이선이 상기 마킹 영상의 좌측변과 교차하는 제3 교차점과, 상기 높이선이 상기 마킹 영상의 우측변과 교차하는 제4 교차점을 포함하며; 그 중에서, 상기 높이선은 상기 소실점을 통과하고, 또한 지면과 사전 설정 높이만큼 떨어진 선인 것을 포함하는, 내비게이션 표적의 마킹 방법.
  5. 청구항 2에 있어서,
    상기 소실점과 상기 마킹 대상에 기반하여 최저 마킹점과 최고 마킹점을 결정하는 것은:
    상기 마킹 대상이 교통 표지인 경우, 상기 최저 마킹점은 제1 높이선이 상기 마킹 영상의 좌측변과 교차하는 제1 교차점과, 상기 제1 높이선이 상기 마킹 영상의 우측변과 교차하는 제2 교차점을 포함하고; 상기 최고 마킹점은 제2 높이선이 상기 마킹 영상의 좌측과 교차하는 제3 교차점과, 제2 높이선이 상기 마킹 영상의 우측과 교차하는 제4 교차점을 포함하며; 그 중에서, 상기 제1 높이선은 상기 소실을 통과하고 또한 지면과 제1 사전 설정 높이만큼 떨어진 선이고, 상기 제2 높이선은 상기 소실점을 통과하고 또한 지면과 제2 사전 설정 높이만큼 떨어진 선이며, 상기 제1 사전 설정 높이는 상기 제2 사전 설정 높이보다 작은 것을 포함하는, 내비게이션 표적의 마킹 방법.
  6. 청구항 1에 있어서,
    상기 마킹 대상과 그와 대응하는 상기 마킹 영역에 따라 상기 마킹 대상에 매칭되는 마킹 처리 모델을 설정하는 단계 후에, 상기 방법은:
    상기 마킹 처리 모델에 기반하여 상기 마킹 영역의 히트 맵을 획득하고; 상기 히트 맵에 기반하여 상기 마킹 영역의 표적을 마킹하는 것을 포함하는, 내비게이션 표적의 마킹 방법.
  7. 청구항 1에 있어서,
    상기 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하는 단계 전에, 상기 방법은:
    상기 마킹 영상에서 근사 영상을 제외하는 것을 더 포함하는, 내비게이션 표적의 마킹 방법.
  8. 청구항 1에 있어서,
    상기 마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하는 단계 전에, 상기 방법은:
    상기 마킹 영상이 위치한 경도 및 위도 정보를 획득하고;
    상기 경도 및 위도 정보에 기반하여 상기 마킹 대상을 결정하는 것을 더 포함하는, 내비게이션 표적의 마킹 방법.
  9. 마킹 영상을 획득하는데 사용되는, 획득 모듈;
    마킹 대상에 기반하여 상기 마킹 영상에서 마킹 영역을 축소하는데 사용되는, 마킹 영역 축소 모듈;
    상기 마킹 대상과 그와 대응하는 상기 마킹 영역에 따라 상기 마킹 대상에 매칭되는 마킹 처리 모델을 설정하는데 사용되는 마킹 처리 모델 획득 모듈을 포함하며; 그 중에서, 상기 마킹 처리 모델은 상기 마킹 영상에서 마킹 영역을 축소하는데 사용되는, 내비게이션 표적의 마킹 장치.
  10. 청구항 9에 있어서,
    상기 마킹 영역 축소 모듈은:
    상기 마킹 영상에서 소실점을 결정하는데 사용되는, 소실점 결정 유닛;
    상기 소실점 및 상기 마킹 대상에 기반하여 최저 마킹점 및 최고 마킹점을 결정하는데 사용되는, 마킹점 결정 유닛;
    상기 최저 마킹점 및 상기 최고 마킹점으로 둘러싸인 폐쇄 영역을 상기 마킹 영역으로 결정하는데 사용되는, 마킹 영역 축소 유닛;을 포함하는, 내비게이션 표적의 마킹 장치.
  11. 청구항 9에 있어서,
    상기 장치는:
    상기 마킹 영상에서 근사 영상을 제외하는데 사용되는, 근사 영상 제외 모듈;을 더 포함하는, 내비게이션 표적의 마킹 장치.
  12. 청구항 9에 있어서,
    상기 장치는:
    상기 마킹 영상이 위치한 경도 및 위도 정보를 획득하는데 사용되는, 경도 및 위도 결정 모듈;
    상기 경도 및 위도 정보에 기반하여 상기 마킹 대상을 결정하는데 사용되는, 마킹 대상 결정 모듈;을 더 포함하는, 내비게이션 표적의 마킹 장치.
  13. 하나 이상의 프로세서;
    그 위에 하나 이상의 프로그램을 저장하고, 상기 하나 이상의 프로그램이 상기 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서는 청구항 1 내지 청구항 8 중 어느 하나의 상기 방법을 구현하는 메모리;
    상기 프로세서와 메모리 사이에 연결되고, 상기 프로세서와 상기 메모리 사이의 정보 인터랙션을 구현하도록 구성되는 하나 이상의 I/O 인터페이스를 포함하는, 전자 기기.
  14. 그 위에 컴퓨터 프로그램이 저장되며, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 청구항 1 내지 청구항 8 중 어느 하나의 상기 방법을 구현하는, 컴퓨터 판독 가능 저장 매체.
  15. 컴퓨터 프로그램을 포함하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 때 청구항 1 내지 청구항 8 중 어느 하나의 상기 방법을 구현하는, 컴퓨터 프로그램 제품.
KR1020210032233A 2020-05-19 2021-03-11 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체 KR102608167B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010433124.4A CN113688259B (zh) 2020-05-19 2020-05-19 导航目标的标注方法及装置、电子设备、计算机可读介质
CN202010433124.4 2020-05-19

Publications (2)

Publication Number Publication Date
KR20210035112A true KR20210035112A (ko) 2021-03-31
KR102608167B1 KR102608167B1 (ko) 2023-12-01

Family

ID=75238106

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210032233A KR102608167B1 (ko) 2020-05-19 2021-03-11 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체

Country Status (3)

Country Link
JP (1) JP7383659B2 (ko)
KR (1) KR102608167B1 (ko)
CN (1) CN113688259B (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265292A (ja) * 2006-03-29 2007-10-11 D-E Tech Corp 道路標識データベース構築装置
JP2012248011A (ja) * 2011-05-27 2012-12-13 Denso Corp 画像認識装置
JP2016024572A (ja) * 2014-07-18 2016-02-08 日産自動車株式会社 信号機検出装置及び信号機検出方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002362302A (ja) 2001-06-01 2002-12-18 Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai 歩行者検出装置
JP5014274B2 (ja) * 2007-07-06 2012-08-29 パナソニック株式会社 画像処理装置、画像処理方法、画像処理システム、プログラム、記録媒体および集積回路
CN101876535B (zh) * 2009-12-02 2015-11-25 北京中星微电子有限公司 一种高度测量方法、装置及监控系统
KR101410273B1 (ko) * 2012-09-11 2014-06-20 한국과학기술원 증강현실 응용을 위한 환경 모델링 방법 및 장치
JP2014146267A (ja) 2013-01-30 2014-08-14 Toyota Motor Corp 歩行者検出装置、運転支援装置
US9747508B2 (en) * 2015-07-24 2017-08-29 Honda Motor Co., Ltd. Surrounding environment recognition device
TWI576712B (zh) * 2015-11-05 2017-04-01 宏碁股份有限公司 照片整理的方法及其電子裝置與電腦程式產品
US10209089B2 (en) * 2017-04-03 2019-02-19 Robert Bosch Gmbh Automated image labeling for vehicles based on maps
CN109034214B (zh) * 2018-07-09 2019-12-27 百度在线网络技术(北京)有限公司 用于生成标记的方法和装置
CN110175975A (zh) * 2018-12-14 2019-08-27 腾讯科技(深圳)有限公司 对象检测方法、装置、计算机可读存储介质和计算机设备
CN110458226B (zh) * 2019-08-08 2022-04-01 上海商汤智能科技有限公司 图像标注方法及装置、电子设备和存储介质
CN110929729B (zh) * 2020-02-18 2020-08-04 北京海天瑞声科技股份有限公司 图像标注方法、图像标注装置及计算机存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265292A (ja) * 2006-03-29 2007-10-11 D-E Tech Corp 道路標識データベース構築装置
JP2012248011A (ja) * 2011-05-27 2012-12-13 Denso Corp 画像認識装置
JP2016024572A (ja) * 2014-07-18 2016-02-08 日産自動車株式会社 信号機検出装置及び信号機検出方法

Also Published As

Publication number Publication date
CN113688259B (zh) 2024-06-07
KR102608167B1 (ko) 2023-12-01
CN113688259A (zh) 2021-11-23
JP2021108137A (ja) 2021-07-29
JP7383659B2 (ja) 2023-11-20

Similar Documents

Publication Publication Date Title
WO2018145602A1 (zh) 车道的确定方法、装置及存储介质
US11625851B2 (en) Geographic object detection apparatus and geographic object detection method
CN110443225B (zh) 一种基于特征像素统计的虚实车道线识别方法及其装置
CN110501018B (zh) 一种服务于高精度地图生产的交通标志牌信息采集方法
CN113989450B (zh) 图像处理方法、装置、电子设备和介质
Shin et al. Visual lane analysis and higher-order tasks: a concise review
KR20200030305A (ko) 영상 처리를 위한 학습 데이터 생성 방법, 영상 처리 방법, 및 그 장치들
Ding et al. Fast lane detection based on bird’s eye view and improved random sample consensus algorithm
CN104729485A (zh) 一种基于车载全景影像与街景地图匹配的视觉定位方法
CN110969592B (zh) 图像融合方法、自动驾驶控制方法、装置和设备
CN107491756B (zh) 基于交通标牌与地面标志的车道转向信息识别方法
WO2021120574A1 (en) Obstacle positioning method and apparatus for autonomous driving system
CN112735253B (zh) 红绿灯自动标注方法及计算机设备
CN111414826A (zh) 一种地标箭头的识别方法、设备及存储介质
CN113033497B (zh) 车道线识别方法、装置、设备及计算机可读存储介质
CN109635737A (zh) 基于道路标记线视觉识别辅助车辆导航定位方法
CN104636724A (zh) 一种基于目标一致性的车载相机快速行人车辆检测方法
CN110838178A (zh) 道路场景模型的确定方法及装置
CN105023002A (zh) 基于主动视觉的车标定位方法
CN111316324A (zh) 一种自动驾驶模拟系统、方法、设备及存储介质
CN114763999A (zh) 地图生成装置、地图生成方法以及地图生成用计算机程序
Xuan et al. Robust lane-mark extraction for autonomous driving under complex real conditions
US9898846B1 (en) Method and apparatus for traffic condition diagram generation
JP5435294B2 (ja) 画像処理装置及び画像処理プログラム
KR102608167B1 (ko) 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant