KR102418795B1 - 3차원 모델링 방법 및 장치 - Google Patents

3차원 모델링 방법 및 장치 Download PDF

Info

Publication number
KR102418795B1
KR102418795B1 KR1020210040406A KR20210040406A KR102418795B1 KR 102418795 B1 KR102418795 B1 KR 102418795B1 KR 1020210040406 A KR1020210040406 A KR 1020210040406A KR 20210040406 A KR20210040406 A KR 20210040406A KR 102418795 B1 KR102418795 B1 KR 102418795B1
Authority
KR
South Korea
Prior art keywords
obstacle
eye
coordinate
coordinate system
surrounding environment
Prior art date
Application number
KR1020210040406A
Other languages
English (en)
Other versions
KR20210042273A (ko
Inventor
이밍 류
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210042273A publication Critical patent/KR20210042273A/ko
Application granted granted Critical
Publication of KR102418795B1 publication Critical patent/KR102418795B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

본 출원은 스마트 교통 분야 및 자율 운전 분야에 관한, 3차원 모델링 방법 및 장치를 공개한다. 구체적인 구현수단은 하기와 같다. 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하고; 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하며; 장애물의 차량 좌표계 상 좌표점을 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하며; 장애물의 눈 좌표계 상 좌표점 및 장애물들 사이의 시각적 거리에 기반하여, 주변 환경에 대해 3차원 모델링을 진행한다. 상기 실시형태는 승객이 차량 탑재 스크린을 통해 보는 무인 차량의 주변 환경이 차창을 통해 보는 주변 환경에 더욱 접근하도록 할 수 있다.

Description

3차원 모델링 방법 및 장치{METHOD AND DEVICE FOR THREE-DIMENSIONAL MODELING}
본 출원의 실시예는 컴퓨터 기술분야에 관한 것이고, 구체적으로 스마트 교통 분야 및 자율 운전 분야에 관한 것이다.
무인 운전 차량은 스마트 차량의 한 가지로서, 휠 타입 이동 로봇이라고도 하며, 주로 차량 내부의 컴퓨터 시스템을 메인으로 한 스마트 조종 장치에 의존하여 무인 운전의 목적을 달성한다. 현재, 무인 운전 차량은 일반적으로 주변 환경에 대한 감지 결과를 차량 탑재 스크린에 투영하여 승객이 차량 감지 능력에 대한 신뢰도를 향상시킨다. 따라서, 승객이 스크린을 통해 보는 무인 차량의 주변 환경이 차창을 통해 보는 주변 환경에 더욱 접근하도록 무인 운전 차량의 주변 환경에 대해 3차원 모델링을 수행하는 것은 시급히 해결해야 할 문제이다.
본 출원은 3차원 모델링 방법 및 장치를 제공한다.
제1 양태에 따르면, 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하는 단계; 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하는 단계; 장애물의 차량 좌표계 상 좌표점을 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하는 단계; 및 장애물의 눈 좌표계 상 좌표점 및 장애물들 사이의 시각적 거리에 기반하여, 주변 환경에 대해 3차원 모델링을 진행하는 단계를 포함하는 3차원 모델링 방법을 제공한다.
제2 양태에 따르면, 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하도록 구성되는 획득 유닛; 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하도록 구성되는 구축 유닛; 장애물의 차량 좌표계 상 좌표점을 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하도록 구성되는 결정 유닛; 및 장애물의 눈 좌표계 상 좌표점 및 장애물들 사이의 시각적 거리에 기반하여, 주변 환경에 대해 3차원 모델링을 진행하도록 구성되는 모델링 유닛을 포함하는 3차원 모델링 장치를 제공한다.
제3 양태에 따르면, 적어도 하나의 프로세서; 및 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하고, 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령어가 저장되며, 명령어는 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서가 제1 양태 중 어느 하나에 따른 3차원 모델링 방법을 수행할 수 있도록 하는 전자 기기를 제공한다.
제4 양태에 따르면, 컴퓨터가 제1 양태 중 어느 하나에 따른 3차원 모델링 방법을 수행하도록 하는 컴퓨터 명령어가 저장된 비일시적 컴퓨터 판독 가능 저장 매체를 제공한다.
제5 양태에 따르면, 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 제공하며, 상기 컴퓨터 프로그램은 프로세서에 의해 실행될 경우, 제1 양태 중 어느 하나에 따른 방법을 수행할 수 있도록 한다.
본 출원의 기술에 따르면, 우선 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하고; 다음, 상기 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 상기 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하며; 그 다음, 상기 장애물의 상기 차량 좌표계 상 좌표점을 상기 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하고; 마지막으로, 상기 눈 좌표계에서 상기 장애물의 좌표점과 상기 장애물들 사이의 시각적 거리에 기반하여, 상기 주변 환경에 대해 3차원 모델링을 진행한다. 이런 방식을 통해 눈의 관찰 시각에서의 주변 환경 중 장애물의 거리를 결정함으로써, 승객이 차량 탑재 스크린을 통해 보는 무인 차량의 주변 환경이 차창을 통해 보는 주변 환경에 접근하도록 할 수 있다.
본 부분에서 설명되는 내용은 본 출원의 실시예의 핵심적이거나 중요한 특징을 식별하기 위한 것이 아니며, 본 출원의 범위를 제한하려는 의도도 아님을 이해해야 한다. 본 출원의 기타 특징은 하기의 명세서에 의해 쉽게 이해될 것이다.
도면은 본 수단을 더욱 잘 이해하도록 하기 위한 것이고, 본 출원에 대해 제한하지 않는다. 여기서:
도 1은 본 출원에 따른 3차원 모델링 방법의 일 실시예의 흐름도이다.
도 2는 본 출원에 따른 3차원 모델링 방법 중 장애물들 사이의 시각적 거리를 결정하는 일 실시예의 흐름도이다.
도 3은 본 출원에 따른 3차원 모델링 방법 중의 장애물의 눈 좌표계 상 좌표점의 개략도이다.
도 4는 본 출원에 따른 3차원 모델링 방법 중 주변 환경에 대해 3차원 모델링을 수행하는 일 실시예의 흐름도이다.
도 5는 본 출원에 따른 3차원 모델링 방법 중 구획된 영역의 일 실시예의 개략도이다.
도 6은 본 출원에 따른 3차원 모델링 장치의 일 실시예의 구조 개략도이다.
도 7은 본 출원의 실시예의 전자 기기를 구현하는데 사용하기 적합한 컴퓨터 시스템의 구조 개략도이다.
아래 도면과 결부하여 본 출원의 예시적 실시예를 설명하고, 여기에는 이해를 돕기 위한 본 출원의 실시예의 다양한 세부 사항들이 포함되어 있으나, 이들은 단지 예시적인 것으로 이해해야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 출원의 범위 및 정신을 벗어나지 않는 한, 여기서 설명된 실시예에 대해 다양한 변형 및 수정을 진행할 수 있음을 이해해야 한다. 마찬가지로, 명확하고 간략한 설명을 위해, 아래의 설명에서 주지 기능 및 구조에 대한 설명을 생략한다.
도 1은 본 출원에 따른 3차원 모델링 방법의 일 실시예의 프로세스(100)를 도시한다. 상기 3차원 모델링 방법은 하기와 같은 단계를 포함한다.
단계 101: 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득한다.
본 실시예에서, 3차원 모델링 방법의 수행주체(예를 들어, 무인 운전 차량의 차량 탑재 단말 기기)는 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득할 수 있다. 상기 무인 운전 차량에는 차량용 카메라와 레이저 레이더 등 센서가 장착될 수 있고, 이러한 센서는 상기 무인 운전 차량의 주변 환경을 감지할 수 있어 주변 환경 중 다양한 장애물의 공간 좌표를 획득하고, 미리 캘리브레이션(Calibration)된 차량 좌표계를 통해, 각각의 센서에 의해 획득된 장애물의 공간 좌표를 융합시켜, 상기 무인 운전 차량의 장애물의 차량 좌표계 상 좌표점을 획득한다. 상기 차량 좌표계는 무인 운전 차량의 중심점을 좌표 원점으로 한 좌표계일 수 있다. 상기 차량 좌표계는 무인 운전 차량의 주행 방향을 X축 좌표축 또는 Y축 좌표축으로 할 수 있다.
여기서, 상기 주변 환경 중의 장애물은 차량, 보행자, 건축물, 나무 및 도로 장애 시설 등을 포함할 수 있으나 이에 제한되지 않는다.
단계 102: 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축한다.
본 실시예에서, 상기 수행주체는 상기 무인 운전 차량에 탑승한 승객의 눈 위치를 결정할 수 있다. 상기 무인 운전 차량에는 눈 감지 장치(예를 들어, 차량 내부 카메라와 적외선 감응장치)가 장착될 수 있고, 상기 눈 감지 장치를 이용하여 승객의 눈을 감지함으로써, 눈 위치를 결정할 수 있다. 다음, 상기 수행주체는 상기 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축할 수 있다. 상기 눈 좌표계의 X좌표축 또는 Y좌표축은 무인 운전 차량의 주행 방향일 수 있다.
단계 103: 장애물의 차량 좌표계 상 좌표점을 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 주변 환경 중의 장애물들 사이의 시각적 거리를 결정한다.
본 실시예에서, 상기 수행주체는 상기 장애물의 상기 차량 좌표계 상 좌표점을 상기 눈 좌표계 상 좌표점으로 변환시킬 수 있다. 여기서, 상기 수행주체는 상기 차량 좌표계와 상기 눈 좌표계의 좌표점 사이의 일대일 대응되는 관계를 이용하여, 좌표축의 평행 이동 또는 회전 등 동작을 통해 좌표 변환을 진행할 수 있다.
예시로서, 상기 차량 좌표계에서 장애물 A의 좌표점이(3, 3, 3)이면, 상기 차량 좌표계에서 눈의 좌표점이(1, 1, 1)이고, 이때, 눈 위치(1, 1, 1)를 눈 좌표계의 좌표 원점으로 하면, 상기 눈 좌표계에서 장애물 A의 새로운 좌표점은 (2, 2, 2)이다.
다음, 상기 수행주체는 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정할 수 있다. 시각화는 컴퓨터 그래픽스와 이미지 처리 기술을 이용하여, 데이터를 그래픽 또는 이미지로 변환시켜 스크린에 표시한 다음 인터랙션 처리를 진행하는 이론, 방법 및 기술이다. 여기서 상기 시각적 거리는 상기 주변 환경 중의 장애물의 이미지를 차량 탑재 스크린에서 표시할 때 의거한 거리일 수 있다. 차량 탑재 스크린에 장애물을 표시하여야 할 때, 상기 시각적 거리에 대해 일정 비율의 주밍(zooming)을 진행하여 상기 주변 환경 중의 장애물의 위치를 결정할 수 있다.
단계 104: 장애물의 눈 좌표계 상 좌표점 및 장애물들 사이의 시각적 거리에 기반하여, 주변 환경에 대해 3차원 모델링을 진행한다.
본 실시예에서, 상기 수행주체는 상기 눈 좌표계에서 상기 장애물의 좌표점과 상기 장애물들 사이의 시각적 거리에 기반하여, 상기 주변 환경에 대해 3차원 모델링을 진행할 수 있다. 여기서, 상기 수행주체는 장애물과 상기 눈 사이의 거리 및 장애물emf 사이의 거리를 통해, 상기 주변 환경 중 각각의 장애물의 위치를 결정함으로써, 상기 주변 환경에 대해 3차원 모델링을 진행할 수 있다.
부연 설명하면, 승객이 무인 운전 차량에 탑승하므로, 장애물과 승객의 눈 사이의 거리를 장애물과 무인 운전 차량 사이의 거리로 간주할 수도 있다.
본 실시예에서, 상기 주변 환경에 대해 3차원 모델링을 진행한 이후, 상기 수행주체는 모델링 후의 주변 환경에 대해 렌더링을 진행할 수 있다. 렌더링은 이미지가 3D 장면에 부합되도록 하는 단계일 수 있다.
본 실시예에서, 3차원 모델링은 3D모델링이라고도 하고, 일반적으로 3차원 제작 소프트웨어를 이용하여 가상 3차원 공간을 통해 3차원 데이터를 구비하는 모델을 구축하는 것을 가리킨다 3D 모델링은 NURBS(Non-Uniform Rational B-Splines, 비균일 유리 B 스클라인)와 폴리곤 메시(polygonal mesh) 두 가지 모델링 방식을 포함할 수 있다. NURBS는 매우 우수한 모델링 방식으로서 고급 3차원 소프트웨어에서 모두 이러한 모델링 방식을 지원한다. 폴리곤 메시는 3D 오브젝트의 정점, 에지 및 면의 집합을 구성하고, 각각의 3D 캐릭터 및 오브젝트의 형상과 윤곽을 정의한다. 폴리곤 메시 중의 각각의 정점은 모두 x, y 및 z 좌표 정보를 저장한다. NURBS는 기존의 네트워크 모델링 방식에 비해 물체 표면의 곡선도를 더욱 잘 제어함으로써, 더 사실적으고 생생한 모양을 제작할 수 있다.
본 출원의 상기 실시예에서 제공되는 방법은 눈의 관찰 시각에서의 주변 환경 중 장애물의 거리를 결정하여, 승객이 차량 탑재 스크린을 통해 보는 무인 차량의 주변 환경이 차창을 통해 보는 주변 환경에 더욱 접근하도록 할 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 수행주체는 하기와 같은 방식을 통해, 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정할 수 있다: 상기 수행주체는 상기 주변 환경에서 타깃 영역을 선택할 수 있다. 상기 타깃 영역은 미리 계획된 영역일 수 있고, 예를 들어, 상기 무인 운전 차량의 전방 또는 후방 50m 범위 내의 영역일 수 있고, 상기 무인 운전 차량의 좌측 또는 우측 50m 범위 내의 영역일 수도 있으며 상기 주변 환경 전체를 타깃 영역으로 할 수도 있다. 다음, 상기 수행주체는 상기 타깃 영역의 장애물들 사이의 시각적 거리를 결정할 수 있다. 구체적으로, 상기 수행주체는 상기 타깃 영역의 장애물에서 타깃 장애물을 선택할 수 있고, 예를 들어, 상기 타깃 영역의 장애물에서 임의로 하나의 장애물을 타깃 장애물로 선택할 수 있으며, 상기 타깃 영역의 장애물에서 눈 좌표계의 좌표 원점과 거리가 가장 가까운 타깃 장애물을 선택할 수도 있다.
다음, 타깃 장애물에 기반하여, 하기와 같은 시각적 거리 결정 단계를 수행할 수 있다: 상기 타깃 영역 중 타깃 장애물과 거리가 가장 가까운 장애물(제1 장애물)과 타깃 장애물들 사이의 시각적 거리를 결정할 수 있다. 여기서, 상기 눈 좌표계의 좌표 원점을 원심으로 하고, 좌표 원점부터 제1 장애물까지의 거리를 반경으로 하여 원을 그릴 수 있으며, 좌표 원점을 시작점으로 하고, 타깃 장애물의 좌표점을 지나는 반직선과 원의 교점을 타깃점으로 하며, 타깃점과 제1 장애물의 좌표점 사이의 연결선의 거리를 제1 장애물과 타깃 장애물들 사이의 시각적 거리로 결정할 수 있다. 다음, 상기 타깃 영역에 시각적 거리가 결정되지 않은 장애물이 존재하는지 여부를 결정할 수 있다.
시각적 거리가 결정되지 않은 장애물이 존재하면, 시각적 거리가 결정되지 않은 장애물을 타깃 장애물로 하여, 상기 시각적 거리 결정 단계를 계속하여 수행할 수 있다.
상기 실시형태는 시각적 거리의 산출 방식을 제공함으로써, 시각적 거리의 산출 방식을 다양하게 할 수 있다.
계속하여 도 2를 참조하면, 이는 3차원 모델링 방법 중 장애물들 사이의 시각적 거리를 결정하는 일 실시예의 프로세스(200)를 도시한다. 상기 장애물들 사이의 시각적 거리를 결정하는 프로세스(200)는 하기와 같은 단계를 포함한다.
단계 201: 주변 환경에서 타깃 영역을 선택한다.
본 실시예에서, 3차원 모델링 방법의 수행주체(예를 들어, 무인 운전 차량의 차량 탑재 단말기기)는 상기 주변 환경에서 타깃 영역을 선택할 수 있다. 상기 타깃 영역은 미리 계획된 영역일 수 있고, 예를 들어, 상기 무인 운전 차량의 전방 또는 후방 50m 범위 내의 영역일 수 있고, 상기 무인 운전 차량의 좌측 또는 우측 50m 범위 내의 영역일 수도 있으며 상기 주변 환경 전체를 타깃 영역으로 할 수도 있다.
단계 202: 타깃 영역의 장애물들 중에서 기준 장애물을 선택한다.
본 실시예에서, 상기 수행주체는 상기 타깃 영역의 장애물들 중에서 기준 장애물을 선택할 수 있다. 예시로서, 상기 타깃 영역의 장애물에서 상기 무인 운전 차량과 거리가 가장 가까운 장애물을 기준 장애물로 선택할 수 있다.
단계 203: 눈 좌표계의 좌표 원점을 시작점으로 하여, 기준 장애물의 좌표점을 지나는 반직선을 생성한다.
본 실시예에서, 상기 수행주체는 상기 눈 좌표계의 좌표 원점을 시작점으로 하여, 상기 기준 장애물의 좌표점을 지나는 반직선을 생성할 수 있다.
도 3에 도시된 바와 같이, 도 3은 본 출원에 따른 3차원 모델링 방법 중의 장애물의 눈 좌표계 상 좌표점의 개략도를 도시한다. 도 3에서, 눈 좌표계의 좌표 원점은 O이고, OA는 무인 운전 차량의 차량 탑재 스크린의 선분에 수직되며, 점 B는 기준 장애물 B의 좌표점이고, 점 C는 장애물 C의 좌표점이다. 상기 수행주체는 눈 좌표계의 좌표 원점 O를 시작점으로 하여, 기준 장애물의 좌표점 B를 관통하는 반직선을 생성할 수 있으며, 도 3 중의 반직선 OD이다.
단계 204: 타깃 영역 중 기준 장애물을 제외한 각각의 다른 장애물에 대해, 상기 다른 장애물의 좌표점을 시작점으로 하여 반직선의 수직선을 그리고, 수직선의 길이를 상기 다른 장애물과 기준 장애물들 사이의 시각적 거리로 결정한다.
본 실시예에서, 상기 타깃 영역 중 기준 장애물을 제외한 각각의 다른 장애물에 대해, 상기 수행주체는 상기 다른 장애물의 좌표점을 시작점으로 하여, 상기 반직선의 수직선을 만들 수 있다. 상기 수직선의 길이를 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리로 결정할 수 있다.
도 3에 도시된 바와 같이, 장애물 C에 대해, 장애물 C의 좌표점 C를 시작점으로 하여, 반직선 OD의 수직선을 만들어 수직선CD를 획득할 수 있고, 수직선 CD의 길이를 장애물 C와 기준 장애물 B 사이의 시각적 거리로 결정할 수 있다. 여기서, 선분 OB와 선분 OA 사이의 끼인 각이 α라고 가정하면, 선분 CD와 선분 CB 사이의 끼인 각도 α이며, 선분 CB의 길이를 이미 알고 있기에, 삼각함수 관계를 통해 선분 CD=cosα×CB를 결정할 수 있다.
본 출원의 상기 실시예에서 제공되는 방법은 다른 시각적 거리의 산출 방식을 제공하고, 이런 시각적 거리 산출 방식은 다른 장애물과 기준 장애물들 사이의 시각적 거리를 더욱 정확하게 결정할 수 있다.
또한, 도 4를 참조하면, 이는 3차원 모델링 방법 중 주변 환경에 대해 3차원 모델링을 진행하는 일 실시예의 프로세스(400)를 도시한다. 상기 주변 환경에 대해 3차원 모델링을 진행하는 프로세스(400)는 하기와 같은 단계를 포함한다.
단계 401: 눈 좌표계에서 기준 장애물의 좌표점에 기반하여, 기준 장애물에 대해 3차원 모델링을 진행한다.
본 실시예에서, 3차원 모델링 방법의 수행주체(예를 들어, 무인 운전 차량의 차량 탑재 단말기기)는 눈 좌표계에서 기준 장애물의 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행할 수 있다. 구체적으로, 상기 수행주체는 상기 기준 장애물의 상기 눈 좌표계 상 좌표점을 통해, 상기 기준 장애물과 상기 무인 운전 차량의 상대 위치관계를 결정함으로써, 상기 기준 장애물에 대해 3차원 모델링을 진행할 수 있다. 부연 설명하면, 주변 환경의 상대 위치관계를 더욱 잘 나타내게 하기 위해, 상기 무인 운전 차량에 대해서도 3차원 모델링을 진행할 필요가 있다.
여기서, 상기 기준 장애물에 대해 3차원 모델링을 진행한 이후, 상기 수행주체는 모델링 후의 기준 장애물에 대해 렌더링을 진행할 수 있다. 렌더링은 이미지가 3D 장면에 부합되도록 하는 단계일 수 있다.
단계 402: 타깃 영역 중 기준 장애물을 제외한 다른 장애물과 기준 장애물들 사이의 시각적 거리를 이용하여, 다른 장애물의 위치를 결정한다.
본 실시예에서, 상기 수행주체는 상기 타깃 영역에서 상기 기준 장애물을 제외한 다른 장애물과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 다른 장애물의 위치를 결정할 수 있다. 여기서, 상기 수행주체는 상기 눈 좌표계에서 상기 다른 장애물과 상기 기준 장애물의 좌표점을 통해, 상기 다른 장애물과 상기 기준 장애물의 상대 방위관계를 결정할 수 있다. 상기 수행주체는 상기 다른 장애물과 상기 기준 장애물의 상대 방위관계가 변하지 않도록 유지할 수 있고, 상기 다른 장애물과 상기 기준 장애물 사이의 거리가 상기 시각적 거리가 될 때까지 상기 기준 장애물의 방향으로 상기 다른 장애물을 평행 이동시키며, 상기 위치를 상기 다른 장애물의 위치로 결정한다.
단계 403: 다른 장애물의 위치를 이용하여, 다른 장애물에 대해 3차원 모델링을 진행한다.
본 실시예에서, 상기 수행주체는 상기 다른 장애물의 위치 상에서, 상기 다른 장애물에 대해 3차원 모델링을 진행할 수 있다. 상기 다른 장애물에 대해 3차원 모델링을 진행한 이후, 상기 수행주체는 모델링 후의 다른 장애물에 대해 렌더링을 진행할 수 있다.
본 출원의 상기 실시예에서 제공되는 방법은 기준 장애물을 기준으로 하여 다른 장애물의 위치 관계를 결정할 수 있어, 어느 하나의 장애물의 위치에 착오가 생겨 다른 장애물의 위치 추정에 영향주는 것을 방지한다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 수행주체는 하기와 같은 단계를 통해, 상기 기준 장애물의 상기 눈 좌표계 상 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행할 수 있다:
단계 1, 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리 및 상기 눈과 상기 기준 장애물 사이의 실제 거리에 기반하여, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 결정한다.
여기서, 상기 타깃 영역에서 상기 기준 장애물을 제외한 각각의 다른 장애물에 대해, 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리가 a'이고, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리가 a이며, 상기 눈과 상기 기준 장애물 사이의 실제 거리가 c이고, 상기 눈과 상기 기준 장애물 사이의 시각적 거리가 c'라고 가정한다. 시각 등비관계 a'/a=c'/c를 통해, c'= c×a'/a를 획득할 수 있다. 상기 다른 장애물과 상기 기준 장애물 사이의 시각화 거가 a'이고, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리 a 및 상기 눈과 상기 기준 장애물 사이의 실제 거리 c는 모두 알고 있는 것이므로, 상기 공식 c'= c×a'/a을 통해, 상기 다른 장애물을 의거로 한 경우 상기 눈과 상기 기준 장애물 사이의 시각적 거리가 c'임을 결정할 수 있다.
상기 다른 장애물의 개수가 적어도 2개이면, 상기 수행주체는 적어도 2개의 다른 장애물을 의거로 한 경우, 획득한 적어도 2개의 상기 눈과 상기 기준 장애물 사이의 거리에 대해 가중 평균 계산을 진행하여, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 획득할 수 있다.
부연 설명하면, 승객이 무인 운전 차량에 탑승하므로, 장애물과 승객의 눈 사이의 거리를 장애물과 무인 운전 차량 사이의 거리로 간주할 수도 있다.
단계 2, 상기 기준 장애물의 상기 눈 좌표계 상 좌표점 및 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 기준 장애물의 위치를 결정한다.
여기서, 상기 수행주체는 상기 기준 장애물의 상기 눈 좌표계 상 좌표점을 이용하여, 상기 기준 장애물과 상기 눈의 상대 방위관계를 결정할 수 있다. 다음, 상기 수행주체는 상기 기준 장애물과 상기 눈의 상대 방위관계가 변하지 않도록 유지할 수 있고, 상기 기준 장애물과 상기 눈 사이의 거리가 상기 눈과 상기 기준 장애물 사이의 시각적 거리가 될 때까지 상기 눈의 방향으로 상기 기준 장애물을 평행 이동시키며, 상기 위치를 상기 기준 장애물의 위치로 결정한다.
부연 설명하면, 상기 기준 장애물을 상기 눈의 방향으로 평행 이동시킨 후, 장애물 사이의 상대 위치관계를 보장하기 위해, 다른 장애물도 상기 눈 방향으로 상응하게 평행 이동시킬 필요가 있다.
단계 3, 상기 기준 장애물의 위치를 이용하여, 상기 기준 장애물에 대해 3차원 모델링을 진행한다.
여기서, 상기 수행주체는 상기 기준 장애물의 위치에서, 상기 기준 장애물에 대해 3차원 모델을 진행할 수 있다. 상기 기준 장애물에 대해 3차원 모델링을 진행한 이후, 상기 수행주체는 모델링 후의 기준 장애물에 대해 렌더링을 진행할 수 있다.
이러한 방식을 통해, 시각 등비 관계에 따라, 복수 개의 다른 장애물을 의거로 하여 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 종합 산출할 수 있다. 이로써, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 더욱 정확하고 합리적으로 결정할 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 수행주체는 하기와 같은 방식을 통해, 상기 주변 환경에서 타깃 영역을 선택할 수 있다: 상기 수행주체는 상기 주변 환경을 구획할 수 있다. 일반적으로, 구획된 영역이 많을수록, 각각의 영역에서 결정된 시각적 거리가 더욱 정확하다. 다음, 구획된 영역에서 임의로 하나의 영역을 타깃 영역으로 선택할 수 있다. 주변 환경을 구획하는 것을 통해, 구획된 각각의 타깃 영역에 대해 영역 중의 장애물들 사이의 시각적 거리를 결정할 수 있어, 시각적 거리를 더욱 정확하게 결정할 수 있다.
도 5에 도시된 바와 같이, 도 5는 본 출원에 따른 3차원 모델링 방법 중 구획된 영역의 일 실시예의 개략도를 도시한다. 도 5에서, 상기 주변 환경을 4개의 영역으로 구획할 수 있다. 영역 1은 무인 운전 차량의 전방, 좌측 부분 영역 및 우측 부분 영역을 포함한다. 영역 2은 무인 운전 차량의 좌측, 전방 부분 영역 및 후방 부분 영역을 포함한다. 영역 3은 무인 운전 차량의 후방, 좌측 부분 영역 및 우측 부분 영역을 포함한다. 영역 4는 무인 운전 차량의 우측, 전방 부분 영역 및 후방 부분 영역을 포함한다.
또한, 도 6을 참조하면, 상기 각 도면에 도시된 방법에 대한 구현으로서, 본 출원은 3차원 모델링 장치의 일 실시예를 제공하고, 상기 장치 실시예는 도 1에 도시된 방법 실시예와 서로 대응되며, 상기 장치는 구체적으로 다양한 전자 기기에 응용될 수 있다.
도 6에 도시된 바와 같이, 본 실시예의 3차원 모델링 장치(600)는 획득 유닛(601), 구축 유닛(602), 결정 유닛(603) 및 모델링 유닛(604)을 포함한다. 여기서, 획득 유닛(601)은 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하도록 구성되고; 구축 유닛(602)은 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하도록 구성되며; 결정 유닛(603)은 장애물의 차량 좌표계 상 좌표점을 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하도록 구성되고; 모델링 유닛(604)은 장애물의 눈 좌표계 상 좌표점 및 장애물들 사이의 시각적 거리에 기반하여, 주변 환경에 대해 3차원 모델링을 진행하도록 구성된다.
본 실시예에서, 3차원 모델링 장치(600)의 획득 유닛(601), 구축 유닛(602), 결정 유닛(603) 및 모델링 유닛(604)의 구체적인 처리 및 이로 인한 기술적 효과는 각각 도 1 대응 실시예 중의 단계 101 내지 단계 104의 관련 설명을 참조할 수 있으므로, 여기서 더이상 설명하지 않는다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 결정 유닛(603)은 하기와 같은 방식을 통해, 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정할 수 있다: 상기 결정 유닛(603)은 상기 주변 환경에서 타깃 영역을 선택할 수 있다. 상기 타깃 영역은 미리 계획된 영역일 수 있고, 예를 들어, 상기 무인 운전 차량의 전방 또는 후방 50m 범위 내의 영역일 수 있으며, 상기 무인 운전 차량의 좌측 또는 우측 50m 범위 내의 영역일 수도 있고, 상기 주변 환경 전체를 타깃 영역으로 할 수도 있다. 다음, 상기 결정 유닛(603)은 상기 타깃 영역의 장애물들 사이의 시각적 거리를 결정할 수 있다. 구체적으로, 상기 결정 유닛(603)은 상기 타깃 영역의 장애물에서 타깃 장애물을 선택할 수 있고, 예를 들어, 상기 타깃 영역 중의 장애물에서 임의로 하나의 장애물을 타깃 장애물로 선택할 수 있으며, 상기 타깃 영역의 장애물에서 눈 좌표계의 좌표 원점과 거리가 가장 가까운 장애물을 타깃 장애물로 선택할 수도 있다.
다음, 타깃 장애물에 기반하여, 하기와 같은 시각적 거리 결정 단계를 수행할 수 있다: 상기 타깃 영역 중 타깃 장애물과 거리가 가장 가까운 장애물(제1 장애물)과 타깃 장애물들 사이의 시각적 거리를 결정할 수 있다. 여기서, 상기 눈 좌표계의 좌표 원점을 원심으로 하고, 좌표 원점부터 제1 장애물까지의 거리를 반경으로 하여 원을 그릴 수 있으며, 좌표 원점을 시작점으로 하고, 타깃 장애물의 좌표점을 지나는 반직선과 원의 교점을 타깃점으로 하며, 타깃점과 제1 장애물의 좌표점 사이의 연결선의 거리를 제1 장애물과 타깃 장애물들 사이의 시각적 거리로 결정할 수 있다. 다음, 상기 타깃 영역에 시각적 거리가 결정되지 않은 장애물의 존재하는지 여부를 결정할 수 있다.
시각적 거리가 결정되지 않은 장애물이 존재하면, 시각적 거리가 결정되지 않은 장애물을 타깃 장애물로 하여, 상기 시각적 거리 결정 단계를 계속하여 수행할 수 있다.
상기 실시형태는 시각적 거리의 산출 방식을 제공함으로써, 시각적 거리의 산출 방식을 다양하게 할 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 결정 유닛(603)은 상기 타깃 영역의 장애물들 중에서 기준 장애물을 선택할 수 있다. 예시로서, 상기 타깃 영역의 장애물에서 상기 무인 운전 차량과 거리가 가장 가까운 장애물을 기준 장애물로 선택할 수 있다. 다음, 상기 결정 유닛(603)은 상기 눈 좌표계의 좌표 원점을 시작점으로 하여, 상기 기준 장애물의 좌표점을 지나는 반직선을 생성할 수 있다. 상기 타깃 영역 중 기준 장애물을 제외한 각각의 다른 장애물에 대해, 상기 결정 유닛(603)은 상기 다른 장애물의 좌표점을 시작점으로 하여 반직선의 수직선을 만들 수 있다. 상기 수직선의 길이를 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리로 결정할 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 모델링 유닛(604)은 눈 좌표계에서 기준 장애물의 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행할 수 있다. 구체적으로, 상기 모델링 유닛(604)은 상기 기준 장애물의 상기 눈 좌표계 상 좌표점을 통해, 상기 기준 장애물과 상기 무인 운전 차량의 상대 위치관계를 결정함으로써, 상기 기준 장애물에 대해 3차원 모델링을 진행할 수 있다. 부연 설명하면, 주변 환경의 상대 위치관계를 더욱 잘 나타나게 하기 위해, 상기 무인 운전 차량에 대해서도 3차원 모델링을 진행할 필요가 있다.
다음, 상기 모델링 유닛(604)은 상기 타깃 영역에서 상기 기준 장애물을 제외한 다른 장애물과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 다른 장애물의 위치를 결정할 수 있다. 여기서, 상기 모델링 유닛(604)은 상기 눈 좌표계에서 상기 다른 장애물과 상기 기준 장애물의 좌표점을 통해, 상기 다른 장애물과 상기 기준 장애물의 상대 방위관계를 결정할 수 있다. 상기 모델링 유닛(604)은 상기 다른 장애물과 상기 기준 장애물의 상대 방위관계가 변하지 않도록 유지할 수 있고, 상기 다른 장애물과 상기 기준 장애물 사이의 거리가 상기 시각적 거리가 될 때까지 상기 기준 장애물의 방향으로 상기 다른 장애물을 평행 이동시키며, 상기 위치를 상기 다른 장애물의 위치로 결정한다.
마지막으로, 상기 모델링 유닛(604)은 상기 다른 장애물의 위치 상에서, 상기 다른 장애물에 대해 3차원 모델링을 진행할 수 있다. 상기 다른 장애물에 대해 3차원 모델링을 진행한 이후, 상기 모델링 유닛(604)은 모델링 후의 다른 장애물에 대해 렌더링을 진행할 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 모델링 유닛(604)은 하기와 같은 단계를 통해, 상기 기준 장애물의 상기 눈 좌표계 상 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행할 수 있다.
단계 1, 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리 및 상기 눈과 상기 기준 장애물 사이의 실제 거리에 기반하여, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 결정한다.
여기서, 상기 타깃 영역에서 상기 기준 장애물을 제외한 각각의 다른 장애물에 대해, 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리가 a'이고, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리가 a이며, 상기 눈과 상기 기준 장애물 사이의 실제 거리가 c이고, 상기 눈과 상기 기준 장애물 사이의 시각적 거리가 c'라고 가정한다. 시각 등비관계 a'/a=c'/c를 통해, c'= c×a'/a를 획득할 수 있다. 상기 다른 장애물과 상기 기준 장애물 사이의 시각화 거가 a'이고, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리 a 및 상기 눈과 상기 기준 장애물 사이의 실제 거리 c는 모두 알고 있는 것이므로, 상기 공식 c'= c×a'/a을 통해, 상기 다른 장애물을 의거로 한 경우 상기 눈과 상기 기준 장애물 사이의 시각적 거리가 c'임을 결정할 수 있다.
상기 다른 장애물의 개수가 적어도 2개이면, 상기 모델링 유닛(604)은 적어도 2개의 다른 장애물을 의거로 한 경우, 획득한 적어도 2개의 상기 눈과 상기 기준 장애물 사이의 거리에 대해 가중 평균 계산을 진행하여, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 획득할 수 있다.
부연 설명하면, 승객이 무인 운전 차량에 탑승하므로, 장애물과 승객의 눈 사이의 거리를 장애물과 무인 운전 차량 사이의 거리로 간주할 수도 있다.
단계 2, 상기 기준 장애물의 상기 눈 좌표계 상 좌표점 및 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 기준 장애물의 위치를 결정한다.
여기서, 상기 모델링 유닛(604)은 상기 기준 장애물의 상기 눈 좌표계 상 좌표점을 이용하여, 상기 기준 장애물과 상기 눈의 상대 방위관계를 결정할 수 있다. 다음, 상기 모델링 유닛(604)은 상기 기준 장애물과 상기 눈의 상대 방위관계가 변하지 않도록 유지할 수 있고, 상기 기준 장애물과 상기 눈 사이의 거리가 상기 눈과 상기 기준 장애물 사이의 시각적 거리가 될 때까지 상기 눈의 방향으로 상기 기준 장애물을 평행 이동시키며, 상기 위치를 상기 기준 장애물의 위치로 결정한다.
부연 설명하면, 상기 기준 장애물을 상기 눈의 방향으로 평행 이동시킨 후, 장애물 사이의 상대 위치관계를 보장하기 위해, 다른 장애물도 상기 눈 방향으로 상응하게 평행 이동시킬 필요가 있다.
단계 3, 상기 기준 장애물의 위치를 이용하여, 상기 기준 장애물에 대해 3차원 모델링을 진행한다.
여기서, 상기 모델링 유닛(604)은 상기 기준 장애물의 위치에서, 상기 기준 장애물에 대해 3차원 모델을 진행할 수 있다. 상기 기준 장애물에 대해 3차원 모델링을 진행한 이후, 상기 모델링 유닛(604)은 모델링 후의 기준 장애물에 대해 렌더링을 진행할 수 있다.
이러한 방식을 통해, 시각 등비 관계에 따라, 복수 개의 다른 장애물을 의거로 하여 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 종합 산출할 수 있다. 이로써, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 더욱 정확하고 합리적으로 결정할 수 있다.
본 실시예의 일부 선택 가능한 구현형태에서, 상기 결정 유닛(603)은 하기 방식을 통해 상기 주변 환경에서 타깃 영역을 선택하할 수 있다: 상기 결정 유닛(603)은 상기 주변 환경을 구획할 수 있다. 일반적으로, 구획된 영역이 많을수록, 각각의 영역에서 결정된 시각적 거리가 더욱 정확하다. 다음, 구획된 영역에서 임의로 하나의 영역을 타깃 영역으로 선택할 수 있다. 주변 환경을 구획하는 것을 통해, 구획된 각각의 타깃 영역에 대해 영역 중의 장애물들 사이의 시각적 거리를 결정할 수 있어, 시각적 거리를 더욱 정확하게 결정할 수 있다.
본 출원의 실시예에 따르면, 본 출원은 전자 기기 및 판독 가능 저장 매체를 더 제공한다.
도 7에 도시된 바와 같이, 이는 본 출원의 실시예에 따른 3차원 모델링 방법의 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 출원의 구현을 한정하지 않는다.
도 7에 도시된 바와 같이, 상기 전자 기기는 하나 또는 다수의 프로세서(701), 메모리(702), 및 고속 인터페이스 및 저속 인터페이스를 포함하는 각 부재를 연결하기 위한 인터페이스를 포함한다. 각 부재는 상이한 버스를 이용하여 서로 연결되고, 공통 메인보드에 장착될 수 있거나 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는, 메모리에 저장되거나 메모리에서 외부 입력/출력 장치(예를 들어, 인터페이스에 커플링된 표시 기기)에 GUI의 그래픽 정보를 표시하는 명령어를 포함하는 전자 기기 내에서 실행되는 명령어를 처리할 수 있다. 다른 실시형태에서, 필요에 따라 다수의 프로세서 및/또는 다수의 버스를 다수의 메모리와 함께 사용할 수 있다. 마찬가지로, 다수의 전자 기기를 연결할 수 있고, 각 기기는 일부 필요한 동작(예를 들어, 서버 어레이, 한 그룹의 블레이드 서버, 또는 다중 프로세서 시스템)을 제공한다. 도 7에서 하나의 프로세서(701)를 예로 든다.
메모리(702)는 본 출원의 실시예에서 제공되는 비일시적 컴퓨터 판독 가능 저장 매체이다. 여기서, 상기 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령어가 저장되어, 상기 적어도 하나의 프로세서가 본 출원에서 제공되는 3차원 모델링 방법을 수행하도록 한다. 본 출원의 비일시적 컴퓨터 판독 가능 저장 매체에는 컴퓨터 명령어가 저장되고, 상기 컴퓨터 명령어는 컴퓨터가 본원 발명에서 제공되는 3차원 모델링 방법을 수행하도록 한다.
메모리(702)는 비일시적 컴퓨터 판독 가능한 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능한 프로그램, 및 본 출원의 실시예의 3차원 모델링 방법에 대응되는 프로그램 명령어/모듈(예를 들어, 도 6에 도시된 획득 유닛(601), 구축 유닛(602), 결정 유닛(603) 및 모델링 유닛(604))과 같은 모듈을 저장할 수 있다. 프로세서(701)는 메모리(702)에 저장된 비일시적 소프트웨어 프로그램, 명령어 및 모듈을 실행함으로써, 서버의 다양한 기능 애플리케이션 및 데이터 처리를 수행하는데, 즉 상기 방법 실시예의 3차원 모델링 방법을 구현한다.
메모리(702)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있고, 여기서, 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있으며; 데이터 저장 영역은 3차원 모델링 방법의 전자 기기의 사용에 따라 구축된 데이터 등을 저장할 수 있다. 이 밖에, 메모리(702)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 메모리, 플래시 메모리, 또는 다른 비일시적 고체 상태 메모리와 같은 비일시적 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(702)는 프로세서(701)에 대해 원격으로 설치된 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 3차원 모델링 방법의 전자 기기에 연결될 수 있다. 상기 네트워크의 구현예로 인터넷, 인트라넷, 근거리 통신망, 이동 통신망 및 이들의 조합을 포함하지만 이에 한정되지 않는다.
3차원 모델링 방법의 전자 기기는 입력 장치(703) 및 출력 장치(704)를 더 포함할 수 있다. 프로세서(701), 메모리(702), 입력 장치(703) 및 출력 장치(704)는 버스 또는 다른 방식을 통해 연결될 수 있고, 도 7에서 버스를 통해 연결되는 것을 예로 든다.
입력 장치(703)는 입력된 디지털 또는 문자 정보를 수신할 수 있고, 3차원 모델링 방법의 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 발생할 수 있으며, 상기 입력 장치는 예를 들어 터치스크린, 키패드, 마우스, 트랙 패널, 터치 패널, 지시 바, 하나 또는 다수의 마우스 버튼, 트랙 볼, 조이스틱 등 입력 장치이다. 출력 장치(704)는 표시 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 표시 기기는 액정 표시 장치(LCD), 발광 다이오드(LED) 표시 장치 및 플라스마 표시 장치를 포함할 수 있지만 이에 한정되지 않는다. 일부 실시형태에서, 표시 기기는 터치스크린일 수 있다.
여기서 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령어를 수신할 수 있으며, 데이터 및 명령어를 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 또는 코드라고도 함)은 프로그램 가능 프로세서의 기계 명령어를 포함하고, 하이레벨 프로세스 및/또는 객체에 대한 프로그래밍 언어, 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실행할 수 있다. 본문에서 사용된 바와 같이, 용어 “기계 판독 가능한 매체” 및 “컴퓨터 판독 가능한 매체”는 기계 명령어 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기, 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 로직 장치(PLD))를 의미하고, 기계 판독 가능한 신호인 기계 명령어를 수신하는 기계 판독 가능한 매체를 포함한다. 용어 “기계 판독 가능한 신호”는 기계 명령어 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백그라운드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로 근거리 통신망(LAN), 광역 통신망(WAN), 인터넷, 블록체인 네트워크를 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다.
본 출원의 기술에 따르면, 우선, 무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하고; 다음, 상기 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 상기 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하며; 그 다음, 상기 장애물의 상기 차량 좌표계 상 좌표점을 상기 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하고; 마지막으로, 상기 눈 좌표계에서 상기 장애물의 좌표점과 상기 장애물들 사이의 시각적 거리에 기반하여, 상기 주변 환경에 대해 3차원 모델링을 진행한다. 이런 방식을 통해 눈의 관찰 시각에서 주변 환경 중의 장애물 사이의 거리를 결정하여, 승객이 차량 탑재 스크린을 통해 보는 무인 차량의 주변 환경이 차창을 통해 보는 주변 환경에 접근하도록 할 수 있다.
위에서 설명한 다양한 형태의 프로세스, 재배열, 추가 또는 삭제 단계를 사용할 수 있음을 이해해야 한다. 예를 들어, 본 출원에 기재된 각 단계는 동시에 수행될 수 있거나 순차적으로 수행될 수 있거나 상이한 순서로 수행될 수 있고, 본 출원에서 공개된 기술적 해결수단이 이루고자 하는 결과를 구현할 수만 있으면, 본문은 여기서 한정하지 않는다.
상기 구체적인 실시형태는 본 출원의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자는 설계 요구 및 다른 요소에 따라 다양한 수정, 조합, 서브 조합 및 대체를 진행할 수 있음을 이해해야 한다. 본 출원의 정신 및 원칙 내에서 진행한 임의의 수정, 등가적 대체 및 개선 등은 모두 본 출원의 보호 범위 내에 속해야 한다.

Claims (15)

  1. 3차원 모델링 방법으로서,
    무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하는 단계;
    상기 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 상기 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하는 단계;
    상기 장애물의 상기 차량 좌표계 상 좌표점을 상기 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하는 단계; 및
    상기 눈 좌표계에서 상기 장애물의 좌표점과 상기 장애물들 사이의 시각적 거리에 기반하여, 상기 주변 환경에 대해 3차원 모델링을 진행하는 단계를 포함하며,
    상기 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하는 단계는, 상기 주변 환경에서 타깃 영역을 선택하고, 상기 타깃 영역의 장애물들 사이의 시각적 거리를 결정하는 단계를 포함하며,
    상기 타깃 영역의 장애물들 사이의 시각적 거리를 결정하는 단계는, 상기 타깃 영역의 장애물들 중에서 기준 장애물을 선택하는 단계; 상기 눈 좌표계의 좌표 원점을 시작점으로 하여, 상기 기준 장애물의 좌표점을 지나는 반직선을 생성하는 단계; 및 상기 타깃 영역에서 상기 기준 장애물을 제외한 각각의 다른 장애물에 대해, 상기 다른 장애물의 좌표점을 시작점으로 하여 상기 반직선의 수직선을 그리고, 상기 수직선의 길이를 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리로 결정하는 단계를 포함하는 3차원 모델링 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 눈 좌표계에서 상기 장애물의 좌표점과 상기 장애물들 사이의 시각적 거리에 기반하여, 상기 주변 환경에 대해 3차원 모델링을 진행하는 단계는,
    상기 기준 장애물의 상기 눈 좌표계 상 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행하는 단계;
    상기 타깃 영역에서 상기 기준 장애물을 제외한 다른 장애물과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 다른 장애물의 위치를 결정하는 단계; 및
    상기 다른 장애물의 위치를 이용하여, 상기 다른 장애물에 대해 3차원 모델링을 진행하는 단계를 포함하는 3차원 모델링 방법.
  5. 제4항에 있어서,
    상기 기준 장애물의 상기 눈 좌표계 상 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행하는 단계는,
    상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리 및 상기 눈과 상기 기준 장애물 사이의 실제 거리에 기반하여, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 결정하는 단계;
    상기 기준 장애물의 상기 눈 좌표계 상 좌표점 및 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 기준 장애물의 위치를 결정하는 단계; 및
    상기 기준 장애물의 위치를 이용하여, 상기 기준 장애물에 대해 3차원 모델링을 진행하는 단계를 포함하는 3차원 모델링 방법.
  6. 제1항에 있어서,
    상기 주변 환경에서 타깃 영역을 선택하는 단계는,
    상기 주변 환경을 구획하고, 구획된 영역에서 타깃 영역을 선택하는 단계를 포함하는 3차원 모델링 방법.
  7. 3차원 모델링 장치로서,
    무인 운전 차량의 주변 환경 중의 장애물의 차량 좌표계 상 좌표점을 획득하도록 구성되는 획득 유닛;
    상기 무인 운전 차량에 탑승한 승객의 눈 위치를 결정하고, 상기 눈 위치를 좌표 원점으로 하여 눈 좌표계를 구축하도록 구성되는 구축 유닛;
    상기 장애물의 상기 차량 좌표계 상 좌표점을 상기 눈 좌표계 상 좌표점으로 변환시키고, 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하도록 구성되는 결정 유닛; 및
    상기 눈 좌표계에서 상기 장애물의 좌표점과 상기 장애물들 사이의 시각적 거리에 기반하여, 상기 주변 환경에 대해 3차원 모델링을 진행하도록 구성되는 모델링 유닛을 포함하며,
    상기 결정 유닛은 또한, 상기 주변 환경에서 타깃 영역을 선택하고, 상기 타깃 영역의 장애물들 사이의 시각적 거리를 결정하는 방식을 통해, 눈의 관찰 시각에 따라, 상기 주변 환경 중의 장애물들 사이의 시각적 거리를 결정하도록 구성되며,
    상기 결정 유닛은 또한, 상기 타깃 영역의 장애물들 중에서 기준 장애물을 선택하고; 상기 눈 좌표계의 좌표 원점을 시작점으로 하여, 상기 기준 장애물의 좌표점을 지나는 반직선을 생성하며; 상기 타깃 영역에서 상기 기준 장애물을 제외한 각각의 다른 장애물에 대해, 상기 다른 장애물의 좌표점을 시작점으로 하여 상기 반직선의 수직선을 그리고, 상기 수직선의 길이를 상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리로 결정하는 방식을 통해, 상기 타깃 영역의 장애물들 사이의 시각적 거리를 결정하도록 구성되는 3차원 모델링 장치.
  8. 삭제
  9. 삭제
  10. 제7항에 있어서,
    상기 모델링 유닛은 또한,
    상기 기준 장애물의 상기 눈 좌표계 상 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행하고;
    상기 타깃 영역에서 상기 기준 장애물을 제외한 다른 장애물과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 다른 장애물의 위치를 결정하며;
    상기 다른 장애물의 위치를 이용하여, 상기 다른 장애물에 대해 3차원 모델링을 진행하는 방식을 통해,
    상기 눈 좌표계에서 상기 장애물의 좌표점과 상기 장애물들 사이의 시각적 거리에 기반하여, 상기 주변 환경에 대해 3차원 모델링을 진행하도록 구성되는 3차원 모델링 장치.
  11. 제10항에 있어서,
    상기 모델링 유닛은 또한,
    상기 다른 장애물과 상기 기준 장애물 사이의 시각적 거리, 상기 다른 장애물과 상기 기준 장애물 사이의 실제 거리 및 상기 눈과 상기 기준 장애물 사이의 실제 거리에 기반하여, 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 결정하고;
    상기 기준 장애물의 상기 눈 좌표계 상 좌표점 및 상기 눈과 상기 기준 장애물 사이의 시각적 거리를 이용하여, 상기 기준 장애물의 위치를 결정하며;
    상기 기준 장애물의 위치를 이용하여, 상기 기준 장애물에 대해 3차원 모델링을 진행하는 방식을 통해,
    상기 기준 장애물의 상기 눈 좌표계 상 좌표점에 기반하여, 상기 기준 장애물에 대해 3차원 모델링을 진행하도록 구성되는 3차원 모델링 장치.
  12. 제7항에 있어서,
    상기 결정 유닛은 또한,
    상기 주변 환경을 구획하고, 구획된 영역에서 타깃 영역을 선택하는 방식을 통해,
    상기 주변 환경에서 타깃 영역을 선택하도록 구성되는 3차원 모델링 장치.
  13. 전자 기기로서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하고,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령어가 저장되며, 상기 명령어는 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항, 제4항, 제5항 및 제6항 중 어느 한 항에 따른 3차원 모델링 방법을 수행할 수 있도록 하는 전자 기기.
  14. 컴퓨터 명령어가 저장된 비일시적 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 명령어는 컴퓨터가 제1항, 제4항, 제5항 및 제6항 중 어느 한 항에 따른 3차원 모델링 방법을 수행하도록 하는 비일시적 컴퓨터 판독 가능 저장 매체.
  15. 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은 프로세서에 의해 실행될 경우 제1항, 제4항, 제5항 및 제6항 중 어느 한 항에 따른 3차원 모델링 방법을 수행하도록 하는 컴퓨터 프로그램.
KR1020210040406A 2020-06-29 2021-03-29 3차원 모델링 방법 및 장치 KR102418795B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010605153.4A CN111767844B (zh) 2020-06-29 2020-06-29 用于三维建模的方法和装置
CN202010605153.4 2020-06-29

Publications (2)

Publication Number Publication Date
KR20210042273A KR20210042273A (ko) 2021-04-19
KR102418795B1 true KR102418795B1 (ko) 2022-07-07

Family

ID=72723210

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210040406A KR102418795B1 (ko) 2020-06-29 2021-03-29 3차원 모델링 방법 및 장치

Country Status (5)

Country Link
US (1) US11697428B2 (ko)
EP (1) EP3822850B1 (ko)
JP (1) JP7192017B2 (ko)
KR (1) KR102418795B1 (ko)
CN (1) CN111767844B (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420678A (zh) * 2021-06-25 2021-09-21 阿波罗智联(北京)科技有限公司 视线追踪方法、装置、设备、存储介质以及计算机程序产品
EP4375356A1 (en) 2021-07-20 2024-05-29 Toyo Seikan Group Holdings, Ltd. Means for controlling intracellular reaction utilizing needle-shaped body

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030128182A1 (en) * 2001-10-01 2003-07-10 Max Donath Virtual mirror

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6501536B1 (en) * 1995-01-18 2002-12-31 Ronald J. Fredricks Method and apparatus for determining the location of an occupant of a vehicle
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
US6636822B2 (en) * 2002-01-17 2003-10-21 Rosco Inc. Method for testing vehicular mirrors for regulatory compliance using artificial visualization
US7257519B2 (en) * 2002-08-02 2007-08-14 Evans & Sutherland Computer Corporation System and method for weighted correction of an eyepoint position
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
JP4899746B2 (ja) * 2006-09-22 2012-03-21 日産自動車株式会社 経路案内表示装置
EP2511893A4 (en) * 2009-12-10 2018-01-31 Panasonic Intellectual Property Management Co., Ltd. Information display apparatus and information display method
US10800329B2 (en) * 2010-04-19 2020-10-13 SMR Patents S.à.r.l. Rear view mirror simulation
JP5622986B2 (ja) * 2010-07-27 2014-11-12 富士通テン株式会社 画像表示システム、画像処理装置及び画像表示方法
KR101265711B1 (ko) 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d 차량 주변 영상 생성 방법 및 장치
DE102012200731A1 (de) 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
US8965741B2 (en) * 2012-04-24 2015-02-24 Microsoft Corporation Context aware surface scanning and reconstruction
JP2014044569A (ja) * 2012-08-27 2014-03-13 Xacti Corp 電子機器
JP2015210584A (ja) * 2014-04-24 2015-11-24 トヨタ自動車株式会社 画像処理装置
JP2016134090A (ja) * 2015-01-21 2016-07-25 株式会社東芝 画像処理装置及びそれを用いた運転支援システム
US10999559B1 (en) * 2015-09-11 2021-05-04 Ambarella International Lp Electronic side-mirror with multiple fields of view
CN106504188B (zh) * 2016-11-23 2018-10-23 北京清影机器视觉技术有限公司 用于立体视觉呈现的人眼观察图像的生成方法和装置
US11190757B2 (en) * 2017-12-22 2021-11-30 Mirage 3.4D Pty Ltd Camera projection technique system and method
CN108082083B (zh) * 2018-01-16 2019-11-01 京东方科技集团股份有限公司 一种被遮挡对象的显示方法和显示系统以及车载防撞系统
CN110619303A (zh) * 2019-09-16 2019-12-27 Oppo广东移动通信有限公司 注视点追踪方法、装置、终端及计算机可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030128182A1 (en) * 2001-10-01 2003-07-10 Max Donath Virtual mirror

Also Published As

Publication number Publication date
KR20210042273A (ko) 2021-04-19
CN111767844B (zh) 2023-12-29
US11697428B2 (en) 2023-07-11
CN111767844A (zh) 2020-10-13
EP3822850B1 (en) 2023-09-27
US20210403026A1 (en) 2021-12-30
EP3822850A3 (en) 2021-09-22
JP7192017B2 (ja) 2022-12-19
JP2021119466A (ja) 2021-08-12
EP3822850A2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
JP6716178B2 (ja) ロボットの障害物回避制御システム、方法、ロボット及びプログラム
CN108352056B (zh) 用于校正错误深度信息的系统和方法
KR102418795B1 (ko) 3차원 모델링 방법 및 장치
JP7228623B2 (ja) 障害物検出方法、装置、設備、記憶媒体、及びプログラム
CN111368760B (zh) 一种障碍物检测方法、装置、电子设备及存储介质
KR20210038444A (ko) 센서 방안 결정 방법, 장치, 기기 및 저장매체
JP7309806B2 (ja) 軌跡を処理するための方法、装置、路側機、クラウド制御プラットフォーム及びコンピュータプログラム
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
JP2021101365A (ja) 測位方法、測位装置及び電子機器
US11092690B1 (en) Predicting lidar data using machine learning
EP3904829B1 (en) Method and apparatus for generating information, device, medium and computer program product
US20210362714A1 (en) Speed planning method and apparatus for self-driving, device, medium and vehicle
CN111079079B (zh) 数据修正方法、装置、电子设备及计算机可读存储介质
KR20210040876A (ko) 차량용 카메라의 외부 파라미터 캘리브레이션 방법, 장치, 시스템 및 저장매체
JP2022050311A (ja) 車両の車線変更を検出するための方法、装置、電子機器、記憶媒体、路側機、クラウド制御プラットフォーム、及びコンピュータプログラム
KR20210071884A (ko) 회전 교차로 네비게이션 방법, 장치, 기기 및 저장 매체
JP7351892B2 (ja) 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム
CN114815851A (zh) 机器人跟随方法、装置、电子设备以及存储介质
CN111767843A (zh) 三维位置预测方法、装置、设备以及存储介质
CN114266876B (zh) 定位方法、视觉地图的生成方法及其装置
CN115578432A (zh) 图像处理方法、装置、电子设备及存储介质
Hu et al. 3D indoor modeling using a hand-held embedded system with multiple laser range scanners
Zhou et al. Positioning System Based on Lidar Fusion

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant