KR20230086595A - 이미지 처리 방법, 장치, 전자 기기, 저장 매체, 차량, 서버 및 프로그램 - Google Patents

이미지 처리 방법, 장치, 전자 기기, 저장 매체, 차량, 서버 및 프로그램 Download PDF

Info

Publication number
KR20230086595A
KR20230086595A KR1020220166340A KR20220166340A KR20230086595A KR 20230086595 A KR20230086595 A KR 20230086595A KR 1020220166340 A KR1020220166340 A KR 1020220166340A KR 20220166340 A KR20220166340 A KR 20220166340A KR 20230086595 A KR20230086595 A KR 20230086595A
Authority
KR
South Korea
Prior art keywords
mapping result
image information
information
server
target area
Prior art date
Application number
KR1020220166340A
Other languages
English (en)
Inventor
빈 후
구이구안 비
Original Assignee
아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드 filed Critical 아폴로 인텔리전트 드라이빙 테크놀로지(베이징) 컴퍼니 리미티드
Publication of KR20230086595A publication Critical patent/KR20230086595A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/55External transmission of data to or from the vehicle using telemetry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 이미지 처리 방법, 장치, 전자 기기, 차량, 서버 및 저장 매체 및 프로그램을 제공하되, 인공 지능 분야에 관한 것으로, 특히 자율 주행, 스마트 교통 등 분야에 관한 것이다. 구체적인 실시형태에 있어서, 적어도 하나 이상의 이미지 정보를 서버로 전송하는 단계 - 상기 적어도 하나 이상의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보임 - ; 상기 서버에서 생성된 제1 매핑 결과를 획득하는 단계 - 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하는 단계 - 상기 타깃 영역의 상기 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행을 수행하도록 구동하기 위한 정보임 -; 를 포함한다. 상기 방법은 매핑 효율을 확보하여 전체적인 처리 효율을 향상시킬 수 있다.

Description

이미지 처리 방법, 장치, 전자 기기, 저장 매체, 차량, 서버 및 프로그램{IMAGE PROCESSING METHOD, APPARATUS, ELECTRONIC DEVICE AND STORAGE MEDIUM, VEHICLES, SERVERS AND PROGRAMS}
본 발명은 컴퓨터 기술 분야에 관한 것으로, 특히 자율 주행, 스마트 교통 등 인공 지능 기술 분야에 관한 것이다.
컴퓨터 기술이 발달함에 따라 인공 지능 분야도 급속도로 발전하고 있으며, 특히 스마트 교통, 자율 주행 등의 기술이 널리 사용되고 있다. 여기서, 상기 자율 주행은 점점 더 많은 차량에 구비되는 기능으로써, 이러한 자율 주행 기능을 구비한 차량은 로컬로 저장된 맵 정보에 기반하여 자율 주행을 구동시켜야 한다. 그러나, 차량의 자율 주행을 구동시키기 위한 맵 정보를 보다 효율적으로 얻는 것이 해결해야 할 과제이다.
본 발명은 이미지 처리 방법, 장치, 전자 기기, 차량, 서버 및 저장 매체를 제공한다.
본 발명의 제1 측면에 따르면, 이미지 처리 방법을 제공하되, 적어도 하나 이상의 이미지 정보를 서버로 전송하는 단계 - 상기 적어도 하나 이상의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보임 - ; 상기 서버에서 생성된 제1 매핑 결과를 획득하는 단계 - 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하는 단계 - 상기 타깃 영역의 상기 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행을 수행하도록 구동하기 위한 정보임 -; 를 포함한다.
본 발명의 제2 측면에 따르면, 이미지 처리 방법을 제공하되, 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 제1 매핑 결과를 획득하는 단계 - 상기 적어도 하나의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보이고, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및 상기 제1 매핑 결과를 전송하는 단계; 를 포함한다.
본 발명의 제3 측면에 따르면, 이미지 처리 장치를 제공하되, 적어도 하나 이상의 이미지 정보를 서버로 전송하는 제1 전송 모듈 - 상기 적어도 하나 이상의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보임 - ; 상기 서버에서 생성된 제1 매핑 결과를 획득하는 제1 수신 모듈 - 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하는 제1 처리 모듈 - 상기 타깃 영역의 상기 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행을 수행하도록 구동하기 위한 정보임 - ;을 포함한다.
본 발명의 제4 측면에 따르면, 이미지 처리 장치를 제공하되, 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 제1 매핑 결과를 획득하는 제2 처리 모듈 - 상기 적어도 하나의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보이고, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및 상기 제1 매핑 결과를 전송하는 제2 전송 모듈; 을 포함한다.
본 발명의 제5 측면에 따르면, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 기기를 제공하되, 상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어 있고, 상기 명령이 상기 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서가 상기 제1 측면에 따른 이미지 처리 방법을 실행할 수 있도록 구성된다.
본 발명의 제6 측면에 따르면, 적어도 하나의 프로세서; 및 상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 기기를 제공하되, 상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어 있고, 상기 명령이 상기 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서가 상기 제2 측면에 따른 이미지 처리 방법을 실행할 수 있도록 구성된다.
본 발명의 제7 측면에 따르면, 컴퓨터 명령이 저장된 비 일시적 컴퓨터 읽기 가능한 저장 매체를 제공하되, 상기 컴퓨터 명령은 상기 방법을 상기 컴퓨터에서 실행시킨다.
본 발명의 제8 측면에 따르면, 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 제공하되, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 상기 방법을 구현한다.
본 발명의 제9 측면에 따르면, 상기 일 측면의 실시예의 전자 기기를 포함하는 차량을 제공한다.
본 발명의 제10 측면에 따르면, 상기 일 측면의 실시예의 전자 기기를 포함하는 서버를 제공한다.
본 명세서에 기재된 내용은 본 발명의 실시예의 키 포인트 또는 중요 특징을 표시하는 것이 아니며, 본 발명의 범위를 한정하는 것도 아님을 이해해야 한다. 본 발명의 기타 특징은 하기 기재에 의해 용이하게 이해될 것이다.
본 실시예에서 제공되는 방안은, 이미지 정보를 상기 서버에 업로드하여, 상기 서버가 상기 이미지 정보를 처리하여 상기 제1 매핑 결과를 획득하고, 상기 서버로부터 상기 제1 매핑 결과를 획득하면, 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로 저장하여 향후 상기 차량의 자율 주행을 구동하는데 사용할 수 있다. 상기 서버는 보다 높은 연산 능력을 구비하기 때문에 상기 서버를 이용하여 상기 제1 매핑 결과를 생성함으로써 매핑 효율을 향상시킬 수 있으며, 최종 타깃 영역의 맵 정보를 적시적이고 효율적으로 획득할 수 있어 전체적인 처리 효율을 향상시킬 수 있다.
도면은 본 방안의 이해를 돕기 위한 것으로서 본 발명을 한정하지 않는다.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 방법의 흐름 사시도이다.
도 2는 본 발명의 일 실시예에 따른 자율 주행 매핑 태스크의 시나리오 사시도이다.
도 3은 본 발명의 일 실시예에 따른 제2 매핑 결과를 생성하여 제1 매핑 결과를 대체하는 방법의 흐름 사시도이다.
도 4는 본 발명의 일 실시예에 따른 적어도 하나의 이미지 정보에 기반하여 제2 매핑 결과를 생성하는 방법의 흐름 사시도이다.
도 5는 본 발명의 다른 일 실시예에 따른 이미지 처리 방법의 흐름 사시도이다.
도 6은 본 발명의 다른 일 실시예에 따른 제1 매핑 결과를 생성하는 방법의 일 흐름 사시도이다.
도 7은 본 발명의 다른 일 실시예에 따른 제1 매핑 결과를 생성하는 방법의 다른 흐름 사시도이다.
도 8은 본 발명의 다른 일 실시예에 따른 이미지 처리 방법의 예시적 흐름 사시도이다.
도 9는 본 발명의 일 실시예에 따른 이미지 처리 장치의 일 구성 구조 사시도이다.
도 10은 본 발명의 다른 일 실시예에 따른 이미지 처리 장치의 일 구성 구조 사시도이다.
도 11은 본 발명의 다른 일 실시예에 따른 이미지 처리 장치의 다른 구성 구조 사시도이다.
도 12는 본 발명의 일 실시예에 따른 이미지 처리 방법을 구현하기 위한 전자 기기의 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 예시적인 실시예를 설명한다. 이해에 도움이 되도록 본 발명 실시예의 다양한 세부 사항을 포함하되, 이는 단지 예시적인 것으로 간주되어야 한다. 따라서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 범위 및 사상을 벗어나지 않으면서 설명된 실시예의 다양한 변경 및 수정이 이루어질 수 있음을 인식할 것이다. 또한, 이하의 설명에서는 명료함과 간결함을 위하여 공지 기능 및 구성에 대한 설명을 생략한다.
본 발명의 제1 측면은 이미지 처리 방법을 제공하되, 도 1에 도시된 바와 같이 하기와 같은 단계를 포함한다.
단계(S101)에서, 적어도 하나의 이미지 정보를 서버로 전송하되, 상기 적어도 하나의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보이다.
단계(S102)에서, 상기 서버에서 생성된 제1 매핑 결과를 획득하되, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함한다.
단계(S103)에서, 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로 저장하되, 상기 타깃 영역의 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행하도록 구동시키기 위한 정보이다.
본 실시예에서 제공되는 방안은 차량에 구비될 수 있는 이미지 처리 장치에 의해 수행될 수 있다. 여기서, 상기 차량은 자율 주행 기능을 구비한 차량일 수 있다.
상기 단계(S101)를 수행하기 전에, 자율 주행 매핑 태스크를 개시하는 단계를 더 포함할 수 있다. 여기서, 상기 자율 주행 매핑 태스크에 상기 타깃 영역이 포함될 수 있다. 상기 타깃 영역은 주차 자리가 위치한 영역 또는 도로의 일부 등과 같은 선정된 임의의 영역일 수 있으며, 이에 대하여 무한한 사례를 들지 않는다.
더 자세하게는, 상기 자율 주행 매핑 태스크에는 상기 타깃 영역 내의 주행 경로를 더 포함하고, 상기 타깃 영역 내의 주행 경로는 출발점 및 종점을 더 포함할 수 있다. 도 2에 도시된 바와 같이, 상기 자율 주행 매핑 태스크는 주차 자리에 주차되는 자율 주행 매핑 태스크일 수 있으며, 당해 주차 자리에 주차되는 자율 주행 매핑 태스크에는 주택 근처의 주차 자리(1)가 속하는 영역(200) 내에 위치하는 주행 경로(201)를 포함하고, 당해 주행 경로(201)에는 출발점(2011)과 종점(2012)이 설정될 수 있다.
상기 자율 주행 매핑 태스크는 사용자 제어에 의해 개시되거나 또는 상기 자율 주행 매핑 태스크가 자동으로 개시될 수 있다.
상기 사용자 제어에 의해 상기 자율 주행 매핑 태스크가 개시되는 처리는, 상기 사용자가 상기 차량의 사용자 인터페이스에서 상기 자율 주행 매핑 태스크를 개시하도록 선택하거나, 상기 사용자가 단말 장치 중 상기 차량의 타겟 어플리케이션을 제어하기 위한 설정 인터페이스에서 상기 자율 주행 매핑 태스크를 설정하고, 상기 자율 주행 매핑 태스크의 설정이 완료되면, 당해 단말 장치가 상기 이미지 처리 장치로 상기 자율 주행 매핑 태스크를 전송하는 처리일 수 있으며, 여기서 상기 단말 장치는 사용자가 사용하는 스마트 폰, 태블릿 또는 데스크탑 등 장치 중 임의의 하나일 수 있다.
상기 자율 주행 매핑 태스크가 자동으로 개시되는 처리는, 당해 타깃 영역의 히스토리 맵 정보가 이미 저장된 경우, 상기 차량이 현재 상기 타깃 영역 내의 임의의 위치에 도달한 것이 감지되면, 상기 타깃 영역의 히스토리 맵 정보를 업데이트하도록 새로운 상기 자율 주행 매핑 태스크를 자동으로 개시하는 처리일 수 있다.
상기 자율 주행 매핑 태스크가 개시된 후, 상기 차량이 상기 타깃 영역을 주행하면서 실시간으로 상기 적어도 하나의 이미지 정보를 수집하도록 제어하고, 상기 단계(S101)의 상기 적어도 하나의 이미지 정보를 서버로 전송하는 과정을 재수행한다.
상기 실시간으로 상기 적어도 하나의 이미지 정보를 수집하는 단계는, 구체적으로 상기 차량의 이미지 수집 유닛을 제어하여 기 설정된 수집 간격에 따라 실시간으로 상기 적어도 하나의 이미지 정보를 수집하는 단계일 수 있다.
여기서, 상기 이미지 수집 장치는 상기 차량에 장착된 캠 또는 사진기 등일 수 있다. 상기 기 설정된 수집 간격은 기 설정된 시간 수집 간격일 수도 있고, 기 설정된 거리 수집 간격일 수도 있다. 각각의 경우, 상기 기 설정된 시간 수집 간격은 L개의 시간 단위마다 한 번씩 수집되는 것을 의미하며, L은 자연수이고, 실제 상황에 따라 설정될 수 있으며, 상기 시간 단위는 초, 밀리 초 등이 될 수 있으며, 이에 대하여 무한한 사례를 들지 않는다. 상기 기 설정된 거리 수집 간격은 T개의 거리 단위마다 한 번씩 수집되는 것을 의미하며, T는 자연수이고, 실제 상황에 따라 설정될 수 있으며, 상기 거리 단위는 0.5m, 1m , 100cm 등이 될 수 있으며, 이에 대하여 무한한 사례를 들지 않는다.
상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함하고, 상기 제1 매핑 결과에 포함되는 상기 제1 환경 특징 정보의 개수는 하나 이상일 수 있다. 상기 제1 매핑 결과는 구체적으로 포인트 클라우드 맵일 수 있으며, 이에 따라 상기 제1 환경 특징 정보는 구체적으로 상기 타깃 영역 내의 도로 표지 포인트의 포인트 클라우드 영역 정보일 수 있다. 하나의 도로 표지 포인트가 지면 표시선일 경우, 상기 제1 매핑 결과에 상기 타깃 영역 내의 당해 지면 표시선의 포인트 클라우드 영역 정보가 포함될 수 있다.
상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로 저장하는 단계는, 구체적으로 상기 타깃 영역의 히스토리 맵 정보가 저장되지 않은 경우 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로 직접 저장하거나, 상기 타깃 영역의 히스토리 맵 정보가 저장된 경우 상기 제1 매핑 결과를 이용하여 상기 타깃 영역의 히스토리 맵 정보를 대체하여 상기 타깃 영역의 새로운 맵 정보로 저장하는 단계일 수 있다.
본 실시예에서 제공되는 방안은, 이미지 정보를 상기 서버에 업로드하여 상기 서버가 상기 이미지 정보를 처리하여 상기 제1 매핑 결과를 획득하고, 상기 서버로부터 상기 제1 매핑 결과를 획득한 후, 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하여 향후 상기 차량의 자율 주행을 구동하는데 사용할 수 있다. 상기 서버는 보다 높은 연산 능력을 구비하기 때문에, 상기 서버를 이용하여 상기 제1 매핑 결과를 생성함으로써 매핑 효율을 확보할 수 있으며, 상기 타깃 영역의 맵 정보를 적시적이고 효율적으로 획득할 수 있어 전체적인 처리 효율을 향상시킬 수 있다.
일 실시형태에 있어서, 도 3에 도시된 바와 같이 다음과 같은 처리를 더 수행할 수 있다.
단계(S301)에서, 상기 적어도 하나의 이미지 정보를 처리하여 제2 매핑 결과를 획득하되, 상기 제2 매핑 결과는 상기 타깃 영역 내의 제2 환경 특징을 포함한다.
단계(S302)에서, 상기 제2 매핑 결과에 기반하여 상기 제1 매핑 결과를 대체하여 상기 타깃 영역의 맵 정보로서 저장한다.
상기 단계(S301)에서 상기 적어도 하나의 이미지 정보를 처리하여 제2 매핑 결과를 획득하는 처리는 단계(S101)에서 적어도 하나의 이미지 정보를 서버로 전송하는 처리와 동시에 수행될 수 있다.
상기 적어도 하나의 이미지 정보를 처리하여 제2 매핑 결과를 획득하는 단계는, 구체적으로 상기 적어도 하나의 이미지 정보 중 각 이미지 정보를 각각 처리하여 상기 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 획득하고, 상기 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득하는 단계일 수 있다.
여기서, 상기 제2 매핑 결과는 상기 타깃 영역 내의 제2 환경 특징 정보를 포함할 수 있으며, 상기 제2 매핑 결과에 포함되는 상기 제2 환경 특징 정보의 개수는 하나 이상일 수 있다. 상기 제2 매핑 결과는 구체적으로 포인트 클라우드 맵일 수 있으며, 이에 따라 상기 제2 환경 특징 정보는 구체적으로 상기 타깃 영역 내의 도로 표지 포인트의 포인트 클라우드 영역 정보일 수 있다. 하나의 도로 표지 포인트가 가로등일 경우, 상기 제2 매핑 결과에 상기 타깃 영역 내의 당해 가로등의 포인트 클라우드 영역 정보가 포함될 수 있다.
상기 단계(S302)를 수행하기 전에, 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하는 처리를 더 수행할 수 있으며, 구체적으로 상기 서버로부터 상기 제1 매핑 결과를 획득하되 상기 제2 매핑 결과를 획득하지 못한 경우, 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하는 단계를 더 포함할 수 있다.
이상 설명한 바와 같이, 본 실시예에서 제공되는 방안은 차량에 구비된 이미지 처리 장치에서 수행될 수 있는데, 상기 이미지 처리 장치의 연산 능력이 제한되어 있으므로, 상기 이미지 처리 장치가 상기 서버로부터 상기 제1 매핑 결과를 획득했을 때 상기 이미지 처리 장치가 상기 제2 매핑 결과를 획득하지 못할 수 있다. 이러한 경우, 상기 이미지 처리 장치는 상기 서버로부터 획득된 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하여, 상기 차량을 상기 타깃 영역 내에서 자율 주행하도록 구동시킬 수 있다.
상기 제2 매핑 결과를 획득하되 상기 서버에서 생성된 상기 제1 매핑 결과를 획득하지 못한 경우, 상기 제2 매핑 결과를 상기 타깃 영역의 맵 정보로 저장하는 단계를 더 포함할 수 있다. 즉, 네트워크 연결 등 원인으로 상기 서버에서 생성된 상기 제1 매핑 결과를 일시적으로 획득하지 못할 수 있으며, 이때 상기 이미지 처리 장치가 상기 제2 매핑 결과를 이미 획득한 경우, 상기 이미지 처리 장치는 상기 제2 매핑 결과를 상기 타깃 영역의 상기 맵 정보로 저장할 수 있다. 이러한 경우, 상기 이미지 처리 장치가 상기 서버로부터 송신된 상기 제1 매핑 결과를 다시 수신하면, 상기 제1 매핑 결과를 직접 폐기할 수 있다.
상기 단계(S302)에서 상기 제2 매핑 결과에 기반하여 상기 제1 매핑 결과를 대체하여 상기 타깃 영역의 맵 정보로서 저장하는 단계는, 상기 차량의 이미지 정보 수집이 완료된 것으로 확정된 경우 상기 제2 매핑 결과가 획득되었는지 여부를 지속적으로 감지하고, 상기 제2 매핑 결과를 획득한 것으로 확정된 경우, 상기 제2 매핑 결과에 기반하여 상기 제1 매핑 결과를 대체하여 상기 타깃 영역의 맵 정보로서 저장하는 단계를 포함할 수 있다.
상기와 같은 방식으로, 상기 적어도 하나의 이미지 정보를 상기 서버에 업로드하는 동시에 자체적으로 상기 적어도 하나의 이미지 정보를 처리하여 상기 제2 매핑 결과를 얻을 수 있으며, 나아가 상기 제2 매핑 결과를 이용하여 상기 제1 매핑 결과를 대체하되 상기 타깃 영역의 맵 정보로서 저장할 수 있음을 알 수 있다. 상기 제2 매핑 결과를 생성하는 런타임 환경과 당해 제2 매핑 결과를 상기 타깃 영역의 맵 정보로 사용하는 런타임 환경이 동일하므로, 상기 제1 매핑 결과를 대체하여 상기 제2 매핑 결과를 상기 타깃 영역의 맵 정보로 사용함으로써 시스템 작동의 신뢰성을 확보할 수 있다.
상기 적어도 하나의 이미지 정보를 처리하여 제2 매핑 결과를 획득하는 단계는 다음과 같이 두 가지 방식으로 구현될 수 있다.
첫째 방식은, 상기 차량이 실시간으로 수집한 상기 적어도 하나의 이미지 정보 각각에 대응되는 깊이 정보를 획득하고, 상기 적어도 하나의 이미지 정보 중 각 이미지 정보 및 이에 대응되는 깊이 정보에 기반하여 처리를 수행하여 상기 이미지 정보 각각에 대응되는 서브 포인트 클라우드 맵을 획득하고, 상기 이미지 정보 각각에 대응되는 서브 포인트 클라우드 맵을 조합하여 상기 제2 매핑 결과를 획득한다.
두 번째 방식은, 미리 저장된 제1 모델을 이용하여 구현할 수 있다. 도 4에 도시된 바와 같이 하기와 같은 단계를 포함한다.
단계(S401)에서, 상기 적어도 하나의 이미지 정보를 각각 제1 모델에 입력하고, 상기 제1 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 획득한다.
단계(S402)에서, 상기 차량의 이미지 정보 수집이 완료된 것으로 확정된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득한다.
상기 단계(S401)의 처리는 상기 단계(S101)의 처리와 동시에 수행될 수 있다. 예컨대, 제i(i는 1 이상의 정수) 이미지 정보를 상기 서버로 전송하는 동시에 제i 이미지 정보를 상기 제1 모델에 입력하여, 상기 제1 모델로부터 출력된 상기 제i 이미지 정보에 대응되는 제1 서브 매핑 결과를 획득한다. 여기서, 상기 제i 이미지 정보는 상기 이미지 처리 장치가 획득한 상기 차량이 실시간으로 수집한 임의의 하나의 이미지 정보일 수 있다.
한편, 상기 단계(S401에서 상기 적어도 하나의 이미지 정보를 각각 제1 모델에 입력하고, 상기 제1 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 획득하는 처리는, 현재 상기 차량이 이미지 정보 수집을 완료하였는지 여부를 판단하는 단계를 더 포함할 수 있다.
여기서, 상기 현재 상기 차량이 이미지 정보 수집을 완료하였는지 여부를 판단하는 단계는, 상기 차량의 현재 위치가 상기 자율 주행 매핑 태스크 중 상기 주행 경로의 상기 종점인지 여부를 판단하고, 상기 종점일 경우 상기 차량의 이미지 정보 수집이 완료된 것으로 확정하고, 그렇지 않으면 상기 차량의 이미지 정보 수집이 완료되지 않은 것으로 확정하는 단계일 수 있다.
또는, 상기 현재 상기 차량이 이미지 정보 수집을 완료하였는지 여부를 판단하는 단계는, 이미지 정보 수집 정지 명령이 수신되었는지 여부를 판단하고, 수신된 경우 상기 차량이 이미지 정보의 수집 처리를 완료한 것으로 판단하고, 그렇지 않으면 상기 차량이 이미지 정보 수집을 완료하지 않은 것으로 판단할 수 있다.
여기서, 상기 이미지 정보 수집 정지 명령은 사용자가 내릴 수 있으며, 예컨대 상기 차량이 현재 상기 자율 주행 매핑 태스크 중 상기 주행 경로의 상기 종점에 아직 도달하지 않았지만, 사용자가 다른 이유로 이미지 정보 수집 처리를 정지해야 할 경우, 차량에 미리 설정된 어느 버튼(예컨대, 물리적인 버튼 또는 가상 버튼)에 의해 트리거 되어 상기 이미지 정보 수집 정지 명령을 상기 이미지 처리 장치로 전송할 수 있다.
상기 적어도 하나의 이미지 정보 중 어느 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과는, 당해 어느 하나의 이미지 정보에 대응되는 서브 영역의 위치 정보 및 서브 환경 특징 정보를 포함할 수 있다. 상기 서브 환경 특징 정보의 개수는 하나 이상일 수 있으며, 어느 하나의 서브 환경 특징 정보는 상기 서브 영역 내의 하나의 도로 표지 포인트의 포인트 클라우드 영역 정보일 수 있다. 상기 적어도 하나의 이미지 정보 중 서로 다른 이미지 정보는 서로 다른 서브 영역에 대응될 수 있으며, 상기 적어도 하나의 이미지 정보 중 임의의 두 이미지 정보에 대응되는 서브 영역은 일부 겹칠 수 있음을 이해해야 한다.
상기 단계(S401)에서 상기 적어도 하나의 이미지 정보를 각각 제1 모델에 입력하고, 상기 제1 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 획득하는 처리를 예시적으로 설명하면, 상기 제i 이미지 정보를 상기 제1 모델에 입력하고, 상기 제1 모델로부터 출력된 상기 제i 이미지 정보에 대응되는 상기 제1 서브 매핑 결과를 획득하는 단계; 상기 차량이 이미지 정보 수집 처리를 완료하였는지 여부를 판단하는 단계; 상기 차량이 이미지 정보 수집을 완료하지 않은 것으로 확정된 경우, 제i+1 이미지 정보를 상기 제1 모델로 입력하고, 상기 제1 모델로부터 출력된 상기 제i+1 이미지 정보에 대응되는 제1 서브 매핑 결과를 획득하는 단계; 및 상기 차량이 이미지 정보 수집을 완료할 때까지 이와 같은 루프 처리를 수행하는 단계를 포함할 수 있다.
상기 단계(S402)에서 상기 차량의 이미지 정보 수집이 완료된 것으로 확정된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득하는 단계는, 구체적으로 상기 차량의 이미지 정보 수집이 완료된 것으로 확정된 경우, 마지막 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과를 획득하였는지 여부를 검출하는 단계; 및 상기 마지막 하나의 이미지 정보에 대응되는 상기 제1 서브 매핑 결과가 획득된 것으로 확정된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득하는 단계를 포함할 수 있다. 여기서, 상기 마지막 하나의 이미지 정보는 상기 차량의 이미지 정보 수집이 완료되는 시각에 마지막으로 획득된 이미지 정보일 수 있다.
또한, 상기 마지막 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과가 획득하지 못한 경우, 상기 마지막 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과가 획득되었는지 여부를 계속하여 검출하는 단계를 더 포함할 수 있다.
상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득하는 것은, 구체적으로 상기 적어도 하나의 이미지 정보 중 각 이미지 정보에 대응되는 상기 제1 서브 매핑 결과의 상기 서브 영역의 위치 정보에 기반하여, 상기 각 이미지 정보에 대응되는 상기 제1 서브 매핑 결과의 상기 서브 영역의 상기 서브 환경 특징 정보를 조합하여 상기 제2 매핑 결과를 획득하는 것을 의미할 수 있다.
여기서, 상기 제1 모델은 미리 트레이닝된 모델일 수 있으며, 상기 차량에 저장될 수 있다. 상기 제1 모델을 생성하는 방식은, 샘플 데이터에 기반하여 기 설정된 모델을 트레이닝하고, 상기 트레이닝이 수행된 상기 기 설정된 모델을 상기 제1 모델로 생성하는 방식을 포함할 수 있다. 상기 제1 모델은 심층 신경망 모델 또는 신경망 모델일 수 있다.
또한, 서버 측에서 제2 모델을 이용하여 상기 제1 매핑 결과를 생성할 수 있다. 상기 제2 모델은 상기 제1 모델과 동일한 모델일 수 있으며, 본 발명에서 제1 모델과 제2 모델로 구별하여 지칭하는 것은, 상기 제1 모델과 상기 제2 모델이 서로 다른 본체에 저장되고, 런타임 환경이 서로 상이할 수 있기 때문이다.
예컨대, 상기 제1 모델은 상기 차량의 이미지 처리 장치에 저장될 수 있고, 상기 제2 모델은 상기 서버에 저장될 수 있다. 상기 차량의 상기 이미지 처리 장치 중 상기 제1 모델의 런타임 환경은 ARM(Advanced RISC Machine) 아키텍처 또는 GPU(Graphics Processing Unit) 일 수 있고, 상기 서버에서 상기 제2 모델의 런타임 환경은 X86일 수 있다.
상기와 같은 방식으로, 상기 적어도 하나의 이미지 정보를 상기 서버에 업로드하는 동시에 자체적으로 상기 적어도 하나의 이미지 정보를 처리하여 상기 제2 매핑 결과를 얻을 수 있으며, 나아가 상기 제2 매핑 결과를 이용하여 상기 제1 매핑 결과를 대체하되 상기 타깃 영역의 맵 정보로서 저장할 수 있음을 알 수 있다. 상기 제2 매핑 결과가 로컬의 상기 제1 모델에 의해 생성되므로, 로컬로 처리된 상기 제2 매핑 결과의 정확성 및 처리 효율을 확보할 수 있고, 또한 상기 제1 모델을 이용하여 상기 제2 매핑 결과를 생성할 때의 런타임 환경과 상기 제2 매핑 결과를 상기 타깃 영역의 맵 정보로 사용할 때의 런타임 환경이 동일하므로, 상기 제1 매핑 결과를 대체하여 상기 제2 매핑 결과를 상기 타깃 영역의 맵 정보로 사용함으로써 시스템 작동의 신뢰성을 확보할 수도 있다.
일 실시형태에서 있어서, 상기 서버에서 생성된 제1 매핑 결과를 획득하는 단계는 다음과 같은 두 가지 처리 방식을 포함할 수 있다.
첫째 방식은, 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 상기 서버로 전송하고, 상기 서버로부터 송신된 상기 제1 매핑 결과를 수신하는 방식이다.
이와 같은 처리 방식은 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 전송한 후, 상기 서버로부터 상기 제1 매핑 결과의 전송을 기다리면 된다.
여기서, 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보는 상기 서버에 상기 이미지 정보의 수집이 완료되었음을 알리는 정보일 수 있다. 이에 따라, 상기 서버는 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우 자신의 제2 모델에 의해 자신이 수신한 상기 적어도 하나의 이미지 정보를 처리하여 상기 제1 매핑 결과를 획득한 후, 바로 상기 제1 매핑 결과를 전송할 수도 있고, 또는 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우 자신이 획득한 적어도 하나의 제2 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득한 후 바로 상기 제1 매핑 결과를 전송할 수도 있다.
이와 같이, 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 한 번만 전송하면, 상기 서버에서 송신한 상기 제1 매핑 결과를 수신할 수 있다. 즉, 상기 서버와 상대적으로 적은 정보만을 인터랙션하여 상기 서버에서 생성된 상기 제1 매핑 결과를 획득할 수 있으므로, 상기 서버와의 통신 자원 점유를 최소화할 수 있다.
두 번째 방식은, 상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 전송하고, 상기 서버로 매핑 결과 조회 요청을 전송하되, 상기 서버로부터 매핑 완료의 응답 정보가 수신된 경우, 상기 서버로부터 상기 제1 매핑 결과를 획득하는 방식이다.
상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 전송하고, 상기 서버로 매핑 결과 조회 요청을 전송하되, 상기 서버로부터 매핑 완료의 응답 정보가 수신된 경우, 상기 서버로부터 상기 제1 매핑 결과를 획득하는 단계는, 상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 전송하는 단계; 상기 서버로 매핑 결과 조회 요청을 주기적으로 전송하고, 상기 서버로부터 상기 매핑 완료의 응답 정보의 수신 여부를 검출하는 단계; 및 상기 매핑 결과 조회 요청을 임의로 한번 전송하고 상기 서버로부터 상기 매핑 완료의 응답 정보가 수신된 경우, 상기 서버로부터 상기 제1 매핑 결과를 획득하는 단계일 수 있다.
여기서, 상기 서버로 매핑 결과 조회 요청을 주기적으로 전송하는 주기의 길이는 실제 상황에 따라 설정될 수 있으며, 예컨대 1초 또는 2초일 수 있으며, 본 실시예는 이에 무한한 사례를 들지 않는다.
상기 서버로부터 상기 제1 매핑 결과를 획득하는 것은, 구체적으로 상기 차량이 상기 서버로부터 상기 제1 매핑 결과를 다운로드하는 것일 수 있다.
이와 같은 처리 방식으로, 상기 서버로 이미지 정보의 수집이 완료되었음을 알린 후, 매핑 결과 조회 요청을 서버로 주기적으로 전송하고, 상기 서버로부터 매핑 완료의 응답 정보가 수신되면, 상기 서버로부터 상기 제1 매핑 결과를 획득함으로써, 상기 제1 매핑 결과를 획득할 수 있는 적시성을 확보하고, 향후 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 확보하여, 향후 상기 차량의 자율 주행을 위한 처리 효율을 확보할 수 있다.
본 발명의 제2 측면의 실시예는 이미지 처리 방법을 더 제공하되, 도 5에 도시된 바와 같이 하기와 같은 단계를 포함한다.
단계(S501)에서, 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 제1 매핑 결과를 획득하되, 여기서 상기 적어도 하나의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보이고, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함한다.
단계(S502)에서, 상기 제1 매핑 결과를 전송한다.
본 실시예에서, 상기 서버는 클라우드 측의 서버일 수 있다.
상기 적어도 하나의 이미지 정보는 상기 차량의 이미지 처리 장치가 실시간으로 상기 서버에 업로드한 정보일 수 있다. 상기 차량의 상기 이미지 처리 장치는 상기 차량에 설치 또는 장착된 이미지 처리 장치일 수 있다.
상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특성 정보를 포함하며, 상기 제1 매핑 결과에 포함되는 상기 제1 환경 특성 정보의 개수는 하나 이상일 수 있다. 상기 제1 매핑 결과는 구체적으로 포인트 클라우드 맵일 수 있으며, 이에 따라 상기 제1 환경 특징 정보는 구체적으로 상기 타깃 영역 내의 상기 도로 표지 포인트의 포인트 클라우드 영역 정보를 의미할 수 있다. 하나의 도로 표지 포인트가 지면 표시선일 경우, 상기 제1 매핑 결과에 상기 타깃 영역 내의 상기 지면 표시선의 포인트 클라우드 영역 정보가 포함될 수 있다.
상기 제1 매핑 결과를 전송하는 단계는, 구체적으로 상기 서버가 상기 제1 매핑 결과를 상기 차량의 상기 이미지 처리 장치로 전송하는 단계일 수 있다.
본 실시예에서 제공되는 방안은, 적어도 하나의 이미지 정보를 처리하여 상기 제1 매핑 결과를 획득하고, 상기 제1 매핑 결과를 전송할 수 있다. 보다 높은 연산 능력을 구비하기 때문에, 매핑 효율을 확보할 수 있고, 이에 따라 상기 차량이 최종적인 타깃 영역에 대한 맵 정보를 적시적이고 효율적으로 획득할 수 있어 전체적인 처리 효율을 향상시킬 수 있다.
상기 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여, 제1 매핑 결과를 획득하는 단계는 다음과 같은 두 실시형태를 포함할 수 있다.
일 실시형태에서, 도 6에 도시된 바와 같이 다음과 같은 단계를 포함할 수 있다.
단계(S601)에서, 수신된 상기 적어도 하나의 이미지 정보를 저장한다.
단계(S602)에서, 이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우, 상기 적어도 하나의 이미지 정보를 제2 모델에 입력하여, 상기 제2 모델로부터 출력된 상기 제1 매핑 결과를 획득한다.
상기 수신된 상기 적어도 하나의 이미지 정보를 저장하는 것은, 상기 차량의 상기 이미지 처리 장치로부터 송신된 어느 하나의 이미지 정보가 수신된 경우, 당해 어느 하나의 이미지 정보만 저장하는 것을 의미할 수 있다. 예컨대, 상기 차량이 전송한 제j 이미지 정보를 수신한 경우, 당해 제j 이미지 정보만을 저장하고, j는 1 이상의 정수이다.
상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보는 상기 차량이 이미지 정보 수집을 이미 완료했음을 표시할 수 있다.
상기 적어도 하나의 이미지 정보를 제2 모델에 입력하여 상기 제2 모델로부터 출력된 상기 제1 매핑 결과를 획득하는 것은, 구체적으로 저장된 상기 적어도 하나의 이미지 정보를 모두 상기 제2 모델에 입력하여 상기 제2 모델로부터 출력된 상기 제1 매핑 결과를 획득하는 것을 의미할 수 있다.
즉, 상기 처리에서 상기 차량이 업로드한 모든 이미지 정보를 일괄 처리하여 바로 해당 제1 매핑 결과를 얻을 수 있다.
여기서, 상기 제2 모델은 미리 트레이닝된 모델일 수 있으며, 상기 서버에 저장될 수 있다. 상기 제2 모델을 생성하는 방식은, 상기 샘플 데이터에 기반하여 기 설정된 모델을 트레이닝하고, 상기 트레이닝이 수행된 상기 기 설정된 모델을 상기 제2 모델로 생성하는 방식을 포함할 수 있다. 상기 제2 모델은 심층 신경망 모델 또는 신경망 모델일 수 있다. 상기 제2 모델과 제1 실시예의 제1 모델의 같은 점과 차이점은 제1 실시예의 설명과 동일하므로 중복적인 설명을 생략한다.
이와 같은 방식으로, 상기 제2 모델에 의해 상기 적어도 하나의 이미지 정보를 일괄 처리하여 얻은 상기 제1 매핑 결과를 이용함으로써, 상기 제2 모델에 의한 매핑 회수를 줄일 수 있어 처리 자원의 점유 회수를 줄이고, 처리 효율도 확보할 수 있다.
또 다른 실시형태에 따르면, 상기 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 상기 제1 매핑 결과를 획득하는 단계는, 도 7에 도시된 바와 같이 하기와 같은 단계를 포함할 수 있다.
단계(S701)에서, 수신된 상기 적어도 하나의 이미지 정보를 각각 제2 모델에 입력하고, 상기 제2 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제2 서브 매핑 결과를 획득한다.
단계(S702)에서, 이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득한다.
상기 수신된 상기 적어도 하나의 이미지 정보를 각각 제2 모델에 입력하고, 상기 제2 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제2 서브 매핑 결과를 획득하는 것은, 현재 제j 이미지 정보가 수신된 경우, 상기 제j 이미지 정보를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 출력된 당해 제j 이미지 정보에 대응되는 상기 제2 서브 매핑 결과를 획득하는 것을 의미할 수 있으며, j는 1 이상의 정수이다. 여기서, 상기 제j 이미지는 현재 수신된 임의의 하나의 이미지 정보일 수 있다.
상기 제2 서브 매핑 결과는 현재 수신된 이미지 정보에 대응되는 서브 영역의 위치 정보 및 서브 환경 특징 정보를 포함할 수 있다. 여기서, 상기 적어도 하나의 이미지 정보 중 서로 다른 이미지 정보는 서로 다른 서브 영역에 대응될 수 있으며, 상기 적어도 하나의 이미지 정보 중 임의의 두 이미지 정보에 대응되는 서브 영역은 일부 겹칠 수 있음을 이해해야 한다. 상기 적어도 하나의 이미지 정보 중 임의의 하나의 이미지 정보의 서브 영역 내의 상기 서브 환경 특징 정보는 상기 서브 영역 내의 하나 또는 복수의 상기 서브 환경 특징 정보를 의미할 수 있으며, 여기서 임의의 하나의 서브 환경 특징 정보는 임의의 하나의 도로 표지 포인트의 포인트 클라우드 영역 정보를 의미할 수 있다.
상기 단계(S702)에서 이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득하는 단계는, 구체적으로 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우, 마지막 하나의 이미지 정보에 대응되는 제2 서브 매핑 결과가 획득되었는지 여부를 검출하는 단계; 및 상기 마지막 하나의 이미지 정보에 대응되는 상기 제2 서브 매핑 결과가 획득된 것으로 확정된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득하는 단계를 포함할 수 있다. 여기서, 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보는 상기 차량의 상기 이미지 처리 장치가 상기 서버로 전송된 정보일 수 있다.
또한, 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신하되 상기 마지막 하나의 이미지 정보에 대응되는 제2 서브 매핑 결과를 획득하지 못한 경우, 상기 마지막 하나의 이미지 정보에 대응되는 제2 서브 매핑 결과가 획득되었는지 여부를 계속하여 검출하는 단계를 더 포함할 수 있다.
상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득하는 것은, 구체적으로 상기 적어도 하나의 이미지 정보 중 각 이미지 정보에 대응되는 상기 제2 서브 매핑 결과의 상기 서브 영역의 위치 정보에 기반하여, 상기 각 이미지 정보에 대응되는 상기 제2 서브 매핑 결과의 서브 환경 특징 정보를 조합하여 상기 제1 매핑 결과를 획득하는 것을 의미할 수 있다.
여기서, 상기 제2 모델은 미리 트레이닝된 모델일 수 있으며, 상기 서버에 저장될 수 있다. 상기 제2 모델을 생성하는 방식은, 샘플 데이터에 기반하여 기 설정된 모델을 트레이닝하고, 상기 트레이닝이 수행된 상기 기 설정된 모델을 상기 제2 모델로 생성하는 방식을 포함할 수 있다. 상기 제2 모델은 심층 신경망 모델 또는 신경망 모델일 수 있다.
이와 같은 처리 방식에 의하면, 임의의 하나의 이미지 정보가 수신됨과 동시에 상기 제2 모델을 이용하여 해당 이미지에 대해 처리하기 시작하여 이에 대응되는 제2 서브 매핑 결과를 획득하므로, 차량의 이미지 정보 수집이 완료된 것으로 판단된 경우, 전체 제2 서브 매핑 결과를 병합하면 상기 제1 매핑 결과를 얻을 수 있어서 상기 제1 매핑 결과를 획득하는 효율이 향상될 수 있다.
일 실시형태에 있어서, 상기 제1 매핑 결과를 전송하는 단계는 다음과 같은 두 처리 방식을 포함할 수 있다.
첫 번째 처리 방식은, 상기 제1 매핑 결과가 획득되었음을 확정한 경우, 상기 제1 매핑 결과를 상기 차량의 이미지 처리 장치로 직접 전송한다.
이와 같은 처리 방식은 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 미리 수신하였기 때문에, 상기 차량의 상기 이미지 처리 장치와 더 많은 정보의 인터랙션을 수행할 필요가 없고, 자신이 상기 제1 매핑 결과를 획득한 것이 확정되면 상기 제1 매핑 결과를 상기 차량의 상기 이미지 처리 장치로 바로 전송할 수 있으므로, 상기 차량의 상기 이미지 처리 장치와 상대적으로 적은 정보만을 인터랙션하여 상기 제1 매핑 결과를 전송할 수 있으므로, 상기 차량과의 통신 자원 점유를 최소화할 수 있다.
두 번째 처리 방식은, 매핑 결과 조회 요청을 수신하되 매핑 완료의 응답 정보를 전송하는 경우 상기 제1 매핑 결과를 전송한다.
구체적으로, 상기 차량의 상기 이미지 처리 장치로부터 송신된 제k 상기 매핑 결과 조회 요청을 수신하고, 상기 제1 매핑 결과의 획득 여부를 검출하는 단계 - 여기서 k는 1 이상의 정수임 - ; 상기 제1 매핑 결과가 획득된 것으로 확정되면, 상기 차량의 상기 이미지 처리 장치로 상기 매핑 완료의 응답 정보를 전송하고, 상기 차량의 상기 이미지 처리 장치로 상기 제1 매핑 결과를 전송하는 단계; 및 상기 제1 매핑 결과가 획득되지 않은 것으로 확정되면, 상기 차량의 상기 이미지 처리 장치로 매핑 미완료의 응답 정보를 전송한 후, 상기 차량의 상기 이미지 처리 장치로부터 송신된 제k+1 매핑 결과 조회 요청을 계속하여 대기하고, 상기 제1 매핑 결과가 획득된 것으로 확정될 때까지 이와 같은 루프 처리를 반복하는 단계를 포함할 수 있다.
이와 같은 방식에 의해, 상기 차량의 이미지 처리 장치로부터 송신된 매핑 결과 조회 요청을 수신하되 자신이 상기 제1 매핑 결과를 획득한 것으로 확정된 경우, 상기 차량의 상기 이미지 처리 장치로 상기 제1 매핑 결과를 제공함으로써, 상기 차량의 이미지 처리 장치가 상기 제1 매핑 결과를 획득함에 있어서의 실시간성을 확보하고, 향후 상기 차량이 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로 대체하여 저장하고 상기 차량의 자율 주행을 위한 효율을 확보할 수 있다.
마지막으로, 전술한 제1 실시예 및 제2 실시예를 참조하여, 상기 제1 실시예의 실행 주체를 이미지 처리 장치, 즉 상기 차량에 설치 또는 장착된 상기 이미지 처리 장치, 제2 실시예의 실행 주체를 서버로 하여 예시적으로 설명하며, 도 8을 참조하면 다음과 같은 단계를 포함할 수 있다.
단계(S801)에서, 상기 이미지 처리 장치가 자율 주행 매핑 태스크를 개시한다.
상기 자율 주행 매핑 태스크 중 적어도 상기 타깃 영역을 포함할 수 있으며, 상기 타깃 영역 내의 주행 경로를 더 포함할 수도 있다.
상기 자율 주행 매핑 태스크는 사용자 제어에 의해 개시되거나, 또는 상기 차량이 자동으로 개시할 수 있다.
단계(S801)를 수행한 후, 상기 차량이 주행을 시작하도록 제어할 수 있다. 예컨대, 상기 차량이 상기 타깃 영역을 포함하는 주행 경로 상에서 주행을 시작하도록 제어할 수 있다.
단계(S802)에서, 상기 이미지 처리 장치는 상기 차량의 카메라로부터 실시간으로 각 이미지 정보를 획득하고, 실시간으로 수집된 상기 각 이미지 정보를 서버로 전송한다.
이에 따라, 상기 서버는 상기 각 이미지 정보를 수신한다.
본 단계에서 상기 서버가 상기 각 이미지 정보를 수신한 후, 상기 서버의 처리는, 상기 각 이미지 정보를 수신한 후, 상기 각 이미지 정보를 저장하되 처리하지 않는 단계를 더 포함할 수 있다.
또는, 상기 서버는 상기 각 이미지 정보를 수신함과 동시에 상기 각 이미지 정보를 상기 제2 모델에 각각 입력하여 상기 제2 모델로부터 출력된 상기 각 이미지 정보에 각각 대응되는 제2 서브 매핑 결과를 획득한다.
단계(S803)에서, 상기 이미지 처리 장치는 상기 각 이미지 정보를 상기 제1 모델에 각각 입력하여, 상기 제1 모델로부터 출력된 상기 각 이미지 정보에 각각 대응되는 제1 서브 매핑 결과를 획득한다.
상기 단계(S802)와 단계(S803)는 동시에 수행될 수 있다.
단계(S804)에서, 상기 이미지 처리 장치는 상기 차량의 이미지 정보 수집이 완료되었음을 확정한 경우, 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 상기 서버로 전송한다.
또한, 상기 이미지 처리 장치는 상기 차량의 이미지 정보 수집이 완료되었음을 확정한 경우 다음과 같은 단계를 더 포함할 수 있다. 상기 이미지 처리 장치는 자신이 마지막 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과의 획득 여부를 지속적으로 판단하고, 상기 마지막 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과를 획득한 것으로 확정된 경우, 상기 각 이미지 정보에 대응되는 서브 맵 결과를 조합하여 상기 제2 서브 매핑 결과를 획득할 수 있다.
참고로, 상기 이미지 처리 장치의 연산 능력이 제한되어 있으므로, 상기 제2 매핑 결과를 획득하는 시간은 이후의 단계(S806) 이후가 될 수 있다.
단계(S805)에서, 상기 서버는 상기 제1 매핑 결과를 상기 이미지 처리 장치로 전송한다.
구체적으로, 상기 서버가 상기 각 이미지 정보를 수신한 후 상기 각 이미지 정보를 저장하고 처리하지 않으면, 상기 이미지 처리 장치로부터 송신된 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우, 상기 각 이미지 정보를 제2 모델로 입력하고, 상기 제2 모델로부터 출력된 상기 제1 매핑 결과를 획득하여 상기 제1 매핑 결과를 상기 이미지 처리 장치로 전송한다.
상기 서버가 상기 각 이미지 정보를 수신함과 동시에 상기 각 이미지 정보를 상기 제2 모델에 각각 입력하여 상기 제2 모델로부터 출력된 상기 각 이미지 정보에 각각 대응하는 제2 서브 매핑 결과를 획득하면, 상기 서버가 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신하되 마지막 하나의 이미지 정보에 대응되는 제2 서브 매핑 결과를 획득한 것으로 확정된 경우, 상기 서버는 상기 각 이미지 정보에 각각 대응되는 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득하여 상기 이미지 처리 장치로 전송한다.
단계(S806)에서, 상기 이미지 처리 장치는 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하고, 상기 타깃 영역의 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행을 수행하도록 구동하기 위한 정보이다.
여기서, 상기 단계(S804)에서 상기 이미지 처리 장치는 자신이 마지막 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과를 획득하였는지 여부를 지속적으로 판단하고, 상기 마지막 하나의 이미지 정보에 대응되는 제1 서브 매핑 결과를 획득한 것으로 확정된 경우, 상기 각 이미지 정보에 대응되는 서브 맵 결과를 조합하여 상기 제2 서브 매핑 결과를 획득하는 것으로 이해해야 한다. 상기 이미지 처리 장치의 연산 능력이 제한되어 있으므로, 상기 제2 매핑 결과를 획득하는 시간은 단계(S806) 이후가 될 수 있다.
따라서, 단계(S806) 이후, 상기 이미지 처리 장치가 상기 제2 매핑 결과를 획득한 경우, 상기 제2 매핑 결과에 기반하여 상기 제1 매핑 결과를 대체하여 상기 타깃 영역의 맵 정보로서 저장하는 단계(S807)를 더 포함할 수 있다.
본 실시예에서 제공하는 방안은, 이미지 정보를 상기 서버에 업로드하여 상기 서버가 상기 이미지 정보를 처리하여 상기 제1 매핑 결과를 획득하고, 상기 서버로부터 상기 제1 매핑 결과를 획득한 후, 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하여 향후 상기 차량의 자율 주행을 구동하는데 사용할 수 있으며, 상기 서버가 보다 높은 연산 능력을 구비하기 때문에 상기 서버를 이용하여 상기 제1 매핑 결과를 생성함으로써, 제1 매핑 결과를 획득하는 효율을 향상시킬 수 있어 최종 타깃 영역의 맵 정보를 적시적이고 효율적으로 획득할 수 있다.
본 발명의 제3 측면의 실시예는 이미지 처리 장치를 제공하되, 도 9에 도시된 바와 같이 다음과 같은 구성을 포함한다. 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 적어도 하나의 이미지 정보를 서버로 전송 제1 전송 모듈(901); 상기 서버에서 생성된 제1 매핑 결과를 획득하되, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함하는 제1 수신 모듈(902); 및 상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로 저장하되, 상기 타깃 영역의 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행하도록 구동시키기 위한 정보인 제1 처리 모듈(903)을 포함한다.
상기 제1 처리 모듈(903)은, 상기 적어도 하나의 이미지 정보를 처리하여 제2 매핑 결과를 획득하되, 상기 제2 매핑 결과에 상기 타깃 영역 내의 제2 환경 특징이 포함되고, 상기 제2 매핑 결과에 기반하여 상기 타깃 영역의 맵 정보로서 상기 제1 매핑 결과를 대체하여 저장한다.
상기 제1 처리 모듈(903)은, 상기 적어도 하나의 이미지 정보를 각각 제1 모델에 입력하고, 상기 제1 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 획득하고, 상기 차량의 이미지 정보 수집이 완료된 것으로 확정된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득한다.
상기 제1 전송 모듈(901)은, 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 상기 서버로 전송하고, 상기 제1 수신 모듈(902)은 상기 서버로부터 송신된 상기 제1 매핑 결과를 수신한다.
상기 제1 전송 모듈(901)은, 상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 전송하고, 상기 서버로 매핑 결과 조회 요청을 전송한다.
상기 제1 수신 모듈(902)은, 상기 서버로부터 송신된 매핑 완료의 응답 정보가 수신된 경우, 상기 서버로부터 상기 제1 매핑 완료 결과를 획득한다.
본 실시예에 따른 상기 이미지 처리 장치는 상기 차량에 구비될 수 있다. 본 실시예에 따른 상기 이미지 처리 장치의 각 모듈의 구체적인 처리는 전술한 제1 실시예에 따른 이미지 처리 방법과 동일하므로 중복 설명을 생략한다.
본 발명의 제4 측면은 이미지 처리 장치를 제공하되, 도 10에 도시된 바와 같이 하기와 같은 구성을 포함한다. 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여, 제1 매핑 결과를 획득한다. 여기서, 상기 적어도 하나의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보이고, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함하는 제2 처리 모듈(1001); 및 상기 제1 매핑 결과를 전송하는 제2 전송 모듈(1002)을 포함한다.
도 10에 도시된 이미지 처리 장치에 더하여, 일 실시형태에서 도 11에 도시된 바와 같이 다음과 같은 구성을 더 포함한다. 상기 적어도 하나의 이미지 정보를 수신하고, 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신하는 제2 수신 모듈(1004); 및 상기 제2 수신 모듈이 수신한 상기 적어도 하나의 이미지 정보를 저장하는 저장 모듈(1003)을 포함한다.
상기 제2 처리 모듈(1001)은, 상기 제2 수신 모듈이 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신한 경우, 상기 적어도 하나의 이미지 정보를 제2 모델에 입력하여 상기 제2 모델로부터 출력된 상기 제1 매핑 결과를 획득한다.
상기 제2 수신 모듈(1004)은, 상기 적어도 하나의 이미지 정보를 수신하고, 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신한다.
상기 제2 처리 모듈(1001)은, 상기 제2 수신 모듈이 수신한 상기 적어도 하나의 이미지 정보를 각각 제2 모델에 입력하고, 상기 제2 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제2 서브 매핑 결과를 획득하고, 상기 제2 수신 모듈이 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신한 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득한다.
상기 제2 수신 모듈(1004)은 매핑 결과 조회 요청을 수신한다.
상기 제2 전송 모듈(1002)은 매핑 완료의 응답 정보를 전송하는 경우, 상기 제1 매핑 결과를 전송한다.
본 실시예에 따른 상기 이미지 처리 장치는 서버에 구비될 수 있다. 본 실시예에 따른 상기 이미지 처리 장치 중 각 모듈의 구체적인 처리는 전술한 제2 실시예에 따른 이미지 처리 방법과 동일하므로 중복 설명을 생략한다.
본 발명의 기술적 해결수단에 있어서, 사용자의 개인정보 획득, 저장 및 활용 등은 관계법령을 준수하며 공서양속에 반하지 않는다.
본 발명의 실시예에 따르면, 전자 기기, 읽기 가능한 저장 매체 및 컴퓨터 프로그램 제품이 더 제공된다.
도 12는 본 발명의 실시예를 구현하는 예시적 전자 기기(1200)의 예시적 블록도를 도시한다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러 폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 발명의 구현을 한정하지 않는다.
도 12에 도시된 바와 같이, 전자 기기(1200)는 읽기 전용 메모리(ROM)(1202)에 저장된 컴퓨터 프로그램 또는 저장 유닛(1208)으로부터 랜덤 액세스 메모리(RAM)(1203)로 로딩된 컴퓨터 프로그램에 따라 다양하고 적절한 동작 및 처리를 수행할 수 있는 컴퓨팅 유닛(1201)을 포함한다. RAM(1203)에는 또한 전자 기기(1200)의 조작에 필요한 다양한 프로그램 및 데이터가 저장될 수 있다. 컴퓨팅 유닛(1201), ROM(1202) 및 RAM(1203)은 버스(1204)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(1205)도 버스(1204)에 연결된다.
키보드, 마우스와 같은 입력 유닛(1206); 다양한 유형의 디스플레이, 스피커와 같은 출력 유닛(1207); 자기 디스크, 광 디스크와 같은 저장 유닛(1208); 및 네트워크 카드, 모뎀, 무선 통신 트랜시버와 같은 통신 유닛(1209)을 포함하는 전자 기기(1200) 중의 다수의 부재는 I/O 인터페이스(1205)에 연결된다. 통신 유닛(1209)은 전자 기기(1200)가 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 통신 네트워크를 통해 다른 기기와 정보/데이터를 교환하도록 허용한다.
컴퓨팅 유닛(1201)은 프로세싱 및 컴퓨팅 기능을 갖는 범용 및/또는 전용 프로세싱 컴포넌트일 수 있다. 컴퓨팅 유닛(1201)의 일부 예는 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), 다양한 전용 인공 지능(AI) 컴퓨팅 칩, 머신 러닝 모델 알고리즘을 실행하는 다양한 컴퓨팅 유닛, 디지털 신호 프로세서(DSP) 및 임의의 적절한 프로세서, 컨트롤러, 마이크로 컨트롤러 등을 포함하지만 이에 한정되지 않는다. 컴퓨팅 유닛(1201)은 자율 주행 방법과 같은 상기에 설명된 각 방법과 프로세싱을 수행한다. 예를 들어, 일부 실시예에서 자율 주행 방법은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있고, 이는 저장 유닛(1208)과 같은 기계 읽기 가능 매체에 유형적으로 포함된다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(1202) 및/또는 통신 유닛(1209)을 통해 전자 기기(1200)에 로드 및/또는 설치될 수 있다. 컴퓨터 프로그램이 RAM(803)에 로딩되고 컴퓨팅 유닛(1201)에 의해 실행될 경우, 상기에 설명된 자율 주행 방법의 하나 이상의 단계를 수행할 수 있다. 대안적으로, 다른 실시예에서, 컴퓨팅 유닛(1201)은 다른 임의의 적절한 방식(예를 들어, 펌웨어에 의해)을 통해 자율 주행 방법을 수행하도록 구성될 수 있다.
본문에서 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그램 가능 게이트 어레이(FPGA), 전용 집적 회로(ASIC), 전용 표준 제품(ASSP), 시스템 온 칩의 시스템(SOC), 복합 프로그램 가능 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 이상의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
본 발명의 방법을 구현하는 프로그램 코드는 하나 이상의 프로그래밍 언어의 임의의 조합으로 편집할 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램 가능 데이터 처리 장치의 프로세서 또는 컨트롤러에 제공될 수 있으며, 프로그램 코드는 프로세서 또는 컨트롤러에 의해 실행될 경우, 흐름도 및/또는 블록도에 지정된 기능/작동이 구현되도록 할 수 있다. 프로그램 코드는 완전히 기계에서 실행되거나, 부분적으로 기계에서 실행되거나, 독립형 소프트웨어 패키지로서 기계에서 실행되며, 일부는 원격 기계에서 실행되거나 완전히 원격 기계 또는 서버에서 실행될 수 있다.
본 발명의 컨텍스트에서, 기계 판독 가능 매체는 명령 실행 시스템, 장치 또는 기기에 의해 또는 명령 실행 시스템, 장치 또는 기기와 조합하여 사용하기 위한 프로그램을 포함하거나 저장할 수 있는 유형 매체일 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상기 내용의 임의의 적절한 조합을 포함할 수 있지만 이에 한정되지 않는다. 기계 판독 가능 저장 매체의 보다 구체적인 예는 하나 이상의 와이어에 기반한 전기 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 가능 프로그램 가능 읽기 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, CD-ROM, 광학 저장 기기, 자기 저장 기기 또는 상술한 내용의 임의의 적절한 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백그라운드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로 근거리 통신망(LAN), 광역 통신망(WAN), 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다. 서버는 클라우드 서버, 분산 시스템 서버 또는 블록체인이 조합된 서버일 수 있다.
위에서 설명한 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 발명에 기재된 각 단계는 동시에 수행될 수 있거나 순차적으로 수행될 수 있거나 상이한 순서로 수행될 수 있고, 본 발명에 공개된 기술적 해결수단이 이루고자 하는 결과를 구현할 수만 있으면, 본문은 여기서 한정하지 않는다.
상기 구체적인 실시형태는 본 발명의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자는 설계 요구 및 다른 요소에 따라 다양한 수정, 조합, 서브 조합 및 대체를 진행할 수 있음을 이해해야 한다. 본 발명의 정신 및 원칙 내에서 진행한 임의의 수정, 등가적 대체 및 개선 등은 모두 본 발명의 보호 범위 내에 속해야 한다.

Claims (24)

  1. 이미지 처리 방법에 있어서,
    적어도 하나 이상의 이미지 정보를 서버로 전송하는 단계 - 상기 적어도 하나 이상의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보임 - ;
    상기 서버에서 생성된 제1 매핑 결과를 획득하는 단계 - 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및
    상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하는 단계 - 상기 타깃 영역의 상기 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행을 수행하도록 구동하기 위한 정보임 -;
    를 포함하는 이미지 처리 방법.
  2. 제1 항에 있어서,
    상기 적어도 하나의 이미지 정보를 처리하여 제2 매핑 결과를 획득하는 단계 - 상기 제2 매핑 결과는 상기 타깃 영역 내의 제2 환경 특징을 포함함 - ; 및
    상기 제2 매핑 결과에 기반하여 상기 제1 매핑 결과를 대체하여 상기 타깃 영역의 맵 정보로서 저장하는 단계;
    를 더 포함하는 이미지 처리 방법.
  3. 제2 항에 있어서,
    상기 적어도 하나의 이미지 정보를 처리하여 제2 매핑 결과를 획득하는 단계는,
    상기 적어도 하나의 이미지 정보를 각각 제1 모델에 입력하여, 상기 제1 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 획득하는 단계; 및
    상기 차량의 이미지 정보 수집이 완료된 것으로 확정된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득하는 단계;
    를 포함하는 이미지 처리 방법.
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서,
    상기 서버에서 생성된 제1 매핑 결과를 획득하는 단계는,
    상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 전송하고, 상기 서버로부터 송신된 상기 제1 매핑 결과를 수신하는 단계를 포함하는 이미지 처리 방법.
  5. 제1 항 내지 제3 항 중 어느 한 항에 있어서,
    상기 서버에서 생성된 제1 매핑 결과를 획득하는 단계는,
    상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 정보를 전송하고, 상기 서버로 매핑 결과 조회 요청을 전송하되 상기 서버로부터 송신된 매핑 완료의 응답 정보가 수신된 경우, 상기 서버로부터 상기 제1 매핑 결과를 획득하는 단계를 포함하는 이미지 처리 방법.
  6. 이미지 처리 방법에 있어서,
    수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 제1 매핑 결과를 획득하는 단계 - 상기 적어도 하나의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보이고, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및
    상기 제1 매핑 결과를 전송하는 단계;
    를 포함하는 이미지 처리 방법.
  7. 제6 항에 있어서,
    상기 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 제1 매핑 결과를 획득하는 단계는,
    수신된 상기 적어도 하나의 이미지 정보를 저장하는 단계; 및
    이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우, 상기 적어도 하나의 이미지 정보를 제2 모델에 입력하여 상기 제2 모델로부터 출력된 상기 제1 매핑 결과를 획득하는 단계를 포함하는 이미지 처리 방법.
  8. 제6 항에 있어서,
    상기 수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 제1 매핑 결과를 획득하는 단계는,
    수신된 상기 적어도 하나의 이미지 정보를 각각 제2 모델에 입력하고, 상기 제2 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제2 서브 매핑 결과를 획득하는 단계; 및
    이미지 정보의 수집이 완료되었음을 알리는 알림 정보가 수신된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득하는 단계를 포함하는 이미지 처리 방법.
  9. 제6 항 내지 제8 항 중 어느 한 항에 있어서,
    상기 제1 매핑 결과를 전송하는 단계는,
    매핑 결과 조회 요청을 수신하되 매핑 완료의 응답 정보를 전송하는 경우, 상기 제1 매핑 결과를 전송하는 단계를 포함하는 이미지 처리 방법.
  10. 이미지 처리 장치에 있어서,
    적어도 하나 이상의 이미지 정보를 서버로 전송하는 제1 전송 모듈 - 상기 적어도 하나 이상의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보임 - ;
    상기 서버에서 생성된 제1 매핑 결과를 획득하는 제1 수신 모듈 - 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및
    상기 제1 매핑 결과를 상기 타깃 영역의 맵 정보로서 저장하는 제1 처리 모듈 - 상기 타깃 영역의 상기 맵 정보는 상기 차량을 상기 타깃 영역 내에서 자율 주행을 수행하도록 구동하기 위한 정보임 - ;
    을 포함하는 이미지 처리 장치.
  11. 제10 항에 있어서,
    상기 제1 처리 모듈은, 상기 적어도 하나의 이미지 정보를 처리하여, 상기 타깃 영역 내의 제2 환경 특징을 포함하는 제2 매핑 결과를 획득하고, 상기 제2 매핑 결과에 기반하여 상기 제1 매핑 결과를 대체하여 상기 타깃 영역의 맵 정보로서 저장하도록 구성되는 이미지 처리 장치.
  12. 제11 항에 있어서,
    상기 제1 처리 모듈은, 상기 적어도 하나의 이미지 정보를 각각 제1 모델에 입력하여, 상기 제1 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제1 서브 매핑 결과를 획득하고, 상기 차량의 이미지 정보 수집이 완료된 것으로 확정된 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제1 서브 매핑 결과를 조합하여 상기 제2 매핑 결과를 획득하도록 구성되는 이미지 처리 장치.
  13. 제10 항 내지 제12 항 중 어느 한 항에 있어서,
    상기 제1 전송 모듈은 상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 전송하고,
    상기 제1 수신 모듈은 상기 서버로부터 송신된 상기 제1 매핑 결과를 수신하도록 구성되는 이미지 처리 장치.
  14. 제10 항 내지 제12 항 중 어느 한 항에 있어서,
    상기 제1 전송 모듈은 상기 서버로 이미지 정보의 수집이 완료되었음을 알리는 정보를 전송하고, 상기 서버로 매핑 결과 조회 요청을 전송하며,
    상기 제1 수신 모듈은 상기 서버로부터 송신된 매핑 완료의 응답 정보가 수신된 경우, 상기 서버로부터 상기 제1 프 매핑 결과를 획득하도록 구성되는 이미지 처리 장치.
  15. 이미지 처리 장치에 있어서,
    수신된 적어도 하나의 이미지 정보에 기반하여 처리를 수행하여 제1 매핑 결과를 획득하는 제2 처리 모듈 - 상기 적어도 하나의 이미지 정보는 차량이 타깃 영역 내에서 주행하는 과정에서 수집된 정보이고, 상기 제1 매핑 결과는 상기 타깃 영역 내의 제1 환경 특징 정보를 포함함 - ; 및
    상기 제1 매핑 결과를 전송하는 제2 전송 모듈;
    을 포함하는 이미지 처리 장치.
  16. 제15 항에 있어서,
    상기 적어도 하나의 이미지 정보를 수신하되 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신하는 제2 수신 모듈; 및
    상기 제2 수신 모듈이 수신한 상기 적어도 하나의 이미지 정보를 저장하는 저장 모듈을 더 포함하고,
    상기 제2 처리 모듈은, 상기 제2 수신 모듈이 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신한 경우, 상기 적어도 하나의 이미지 정보를 제2 모델에 입력하여, 상기 제2 모델로부터 출력된 상기 제1 매핑 결과를 획득하도록 구성되는 이미지 처리 장치.
  17. 제15 항에 있어서,
    상기 적어도 하나의 이미지 정보를 수신하되 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신하는 제2 수신 모듈을 더 포함하고,
    상기 제2 처리 모듈은, 상기 제2 수신 모듈이 수신한 상기 적어도 하나의 이미지 정보를 각각 제2 모델에 입력하여, 상기 제2 모델로부터 출력된 상기 적어도 하나의 이미지 정보 각각에 대응되는 제2 서브 매핑 결과를 획득하고, 상기 제2 수신 모듈이 상기 이미지 정보의 수집이 완료되었음을 알리는 알림 정보를 수신한 경우, 상기 적어도 하나의 이미지 정보 각각에 대응되는 상기 제2 서브 매핑 결과를 조합하여 상기 제1 매핑 결과를 획득하도록 구성되는 이미지 처리 장치.
  18. 제15 항 내지 제17 항 중 어느 한 항에 있어서,
    매핑 결과 조회 요청을 수신하는 제2 수신 모듈을 더 포함하고,
    상기 제2 전송 모듈은 매핑 완료의 응답 정보를 전송하는 경우 상기 제1 매핑 결과를 전송하도록 구성되는 이미지 처리 장치.
  19. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 기기에 있어서,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어 있고, 상기 명령이 상기 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서가 제1 항 내지 제3 항 중 어느 한 항에 따른 방법을 실행할 수 있도록 구성되는 전자 기기.
  20. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 기기에 있어서,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되어 있고, 상기 명령이 상기 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서가 제6 항 내지 제8 항 중 어느 한 항에 따른 방법을 실행할 수 있도록 구성되는 전자 기기.
  21. 컴퓨터 명령이 저장된 비 일시적 컴퓨터 판독 가능한 저장 매체에 있어서,
    상기 컴퓨터 명령은 제1 항 또는 제6 항 중 어느 한 항에 따른 방법을 상기 컴퓨터에서 실행시키는 비 일시적 컴퓨터 판독 가능한 저장 매체.
  22. 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품에 있어서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1 항 또는 제6 항 중 어느 한 항에 따른 방법을 구현하는 컴퓨터 프로그램 제품.
  23. 제19 항의 전자 기기를 포함하는 차량.
  24. 제20 항의 전자 기기를 포함하는 서버.

KR1020220166340A 2021-12-08 2022-12-02 이미지 처리 방법, 장치, 전자 기기, 저장 매체, 차량, 서버 및 프로그램 KR20230086595A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111512249.7A CN114166206A (zh) 2021-12-08 2021-12-08 图像处理方法、装置、电子设备及存储介质
CN202111512249.7 2021-12-08

Publications (1)

Publication Number Publication Date
KR20230086595A true KR20230086595A (ko) 2023-06-15

Family

ID=80485684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220166340A KR20230086595A (ko) 2021-12-08 2022-12-02 이미지 처리 방법, 장치, 전자 기기, 저장 매체, 차량, 서버 및 프로그램

Country Status (5)

Country Link
US (1) US20230174098A1 (ko)
EP (1) EP4194812A3 (ko)
JP (1) JP2023085229A (ko)
KR (1) KR20230086595A (ko)
CN (1) CN114166206A (ko)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7156206B2 (ja) * 2018-08-31 2022-10-19 株式会社デンソー 地図システム、車両側装置、およびプログラム
WO2020133088A1 (zh) * 2018-12-27 2020-07-02 驭势科技(北京)有限公司 一种可用于自动驾驶的地图更新系统与方法
JP7393128B2 (ja) * 2019-03-20 2023-12-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置、移動支援システム
WO2021042051A1 (en) * 2019-08-31 2021-03-04 Nvidia Corporation Map creation and localization for autonomous driving applications
CN111174799B (zh) * 2019-12-24 2023-02-17 Oppo广东移动通信有限公司 地图构建方法及装置、计算机可读介质、终端设备
US20210191397A1 (en) * 2019-12-24 2021-06-24 Industrial Technology Research Institute Autonomous vehicle semantic map establishment system and establishment method
JP7251467B2 (ja) * 2019-12-25 2023-04-04 トヨタ自動車株式会社 システムおよび情報処理装置
CN111854771B (zh) * 2020-06-09 2023-01-24 阿波罗智能技术(北京)有限公司 地图质量的检测处理方法、装置、电子设备和存储介质
CN113479192B (zh) * 2021-07-06 2023-03-24 阿波罗智能技术(北京)有限公司 车辆泊出方法、车辆泊入方法、装置、设备以及存储介质
CN113535873B (zh) * 2021-07-13 2023-08-11 北京百度网讯科技有限公司 用于处理数据的方法、装置、设备和可读存储介质
CN113724388B (zh) * 2021-09-03 2023-09-05 北京百度网讯科技有限公司 高精地图的生成方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
JP2023085229A (ja) 2023-06-20
US20230174098A1 (en) 2023-06-08
EP4194812A3 (en) 2023-09-06
CN114166206A (zh) 2022-03-11
EP4194812A2 (en) 2023-06-14

Similar Documents

Publication Publication Date Title
CN111311925B (zh) 车位的检测方法和装置、电子设备、车辆、存储介质
US11698262B2 (en) Method and apparatus for generating route planning model, and storage medium
CN112102638B (zh) 信号灯数据展示方法、装置、服务器、终端、系统和介质
JP2022043192A (ja) 車両運転の制御方法、車両運転の制御装置及び電子機器
CN110929702A (zh) 一种轨迹规划方法、装置、电子设备和存储介质
WO2022111235A1 (zh) 导航处理方法、装置及服务侧设备、智能终端、存储介质
CN113844463B (zh) 基于自动驾驶系统的车辆控制方法、装置及车辆
EP4156106A1 (en) Positioning method and apparatus, device, system, medium and self-driving vehicle
EP3757712A1 (en) Method for controlling mobile robot, apparatus, and control system
KR20230086595A (ko) 이미지 처리 방법, 장치, 전자 기기, 저장 매체, 차량, 서버 및 프로그램
KR102599941B1 (ko) 데이터 수집 제어 방법, 장치, 전자 기기 및 매체
CN115866229A (zh) 多视角图像的视角转换方法、装置、设备和介质
CN113447059B (zh) 自动驾驶汽车传感器的检测方法、装置及电子设备
JP7478831B2 (ja) 自動運転に基づく乗車方法、装置、機器および記憶媒体
JP2021530008A (ja) 移動ロボットを制御するための方法、装置及び制御システム
CN114379547A (zh) 制动控制方法、装置、车辆、电子设备及存储介质
CN114655254A (zh) 自动驾驶车辆控制方法、装置及电子设备
CN114394111A (zh) 用于自动驾驶车辆的变道方法
CN113850909A (zh) 点云数据处理方法、装置、电子设备及自动驾驶设备
CN114714350B (zh) 服务机器人的控制方法、装置、设备及介质
EP4088982A2 (en) Method and apparatus for controlling vehicle, electronic device, storage medium and vehicle
CN115848358B (zh) 车辆泊车方法、装置、电子设备和计算机可读介质
CN115743100B (zh) 泊车路线信息生成方法、装置、设备和计算机可读介质
EP4187205A2 (en) Navigating method and apparatus, and medium
CN116095650A (zh) 一种消息驱动的分布式amr系统