KR102095454B1 - 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법 - Google Patents

커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법 Download PDF

Info

Publication number
KR102095454B1
KR102095454B1 KR1020190122989A KR20190122989A KR102095454B1 KR 102095454 B1 KR102095454 B1 KR 102095454B1 KR 1020190122989 A KR1020190122989 A KR 1020190122989A KR 20190122989 A KR20190122989 A KR 20190122989A KR 102095454 B1 KR102095454 B1 KR 102095454B1
Authority
KR
South Korea
Prior art keywords
image
images
virtual
virtual space
image group
Prior art date
Application number
KR1020190122989A
Other languages
English (en)
Inventor
이선웅
이승화
이세진
Original Assignee
주식회사 에이에스디코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이에스디코리아 filed Critical 주식회사 에이에스디코리아
Priority to KR1020190122989A priority Critical patent/KR102095454B1/ko
Application granted granted Critical
Publication of KR102095454B1 publication Critical patent/KR102095454B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Operations Research (AREA)
  • Processing Or Creating Images (AREA)

Abstract

커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법이 제공된다. 예시적인 실시예에 따른 클라우드 서버는, 사고 발생시 상기 사고가 발생된 지점으로부터 설정된 거리 내에 위치하는 차량들의 카메라에서 각각 촬영된 영상들을 수집하는 영상 수집부; 수집된 상기 영상들의 각 프레임에 포함된 모든 오브젝트를 추출하고, 상기 영상들 중 동일한 오브젝트를 포함하는 영상들을 그룹핑하는 영상 처리부; 및 임의의 가상 공간을 생성하고, 그룹핑된 복수의 영상 그룹 중 설정된 특정 오브젝트를 포함하는 영상 그룹을 우선적으로 선택하며, 선택된 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 기초로 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환하고, 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는 가상화부를 포함한다.

Description

커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법{CLOUD SERVER FOR CONNECTED-CAR AND METHOD FOR SIMULATING SITUATION}
예시적인 실시예들은 사고 상황을 재현하는 기술에 관한 것으로, 보다 구체적으로는 커넥티드 카(connected-car) 기반 공유 차량의 사고 발생시 사고 원인과 과실 여부를 보다 빠르고 정확하게 파악하기 위한 기술에 관한 것이다.
최근 들어, 자율주행 자동차(self-driving car), 더 나아가 지능적인 서비스를 제공할 수 있는 스마트 카(smart car) 등 미래형 자동차에 대한 다양한 개발이 이루어짐에 따라 커넥티트 카(connected-car)에 대한 관심이 증가하고 있다. 커넥티드 카는 네트워크에 연결되어 다양한 서비스를 제공하는 자동차로서, V2X(Vehicle to X)로 대변되는 기술들을 기반으로 차량과 차량(V2V), 차량과 사물(예를 들어, 교통인프라(V2I) 등)과 통신할 수 있다.
이와 같은 커넥티드 카 기반의 공유 차량은 차량 자체와 교통 흐름, 주변 상황 등에 관한 각종 정보를 다른 차량 또는 사물과 주고받을 수 있으며, 사물인터넷(IoT)의 확산으로 점차 그 기능이 고도화되고 있다.
한국공개특허공보 제10-2019-0106870호(2019.09.18)
예시적인 실시예들은 커넥티드 카 기반 공유 차량의 사고 발생시 사고 지점의 주변 차량들의 카메라에서 촬영된 영상들을 조합하여 사고 상황을 보다 빠르게 정확하게 파악하기 위한 것이다.
예시적인 실시예에 따르면, 사고 발생시 상기 사고가 발생된 지점으로부터 설정된 거리 내에 위치하는 차량들의 카메라에서 각각 촬영된 영상들을 수집하는 영상 수집부; 수집된 상기 영상들의 각 프레임에 포함된 모든 오브젝트를 추출하고, 상기 영상들 중 동일한 오브젝트를 포함하는 영상들을 그룹핑하는 영상 처리부; 및 임의의 가상 공간을 생성하고, 그룹핑된 복수의 영상 그룹 중 설정된 특정 오브젝트를 포함하는 영상 그룹을 우선적으로 선택하며, 선택된 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 기초로 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환하고, 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는 가상화부를 포함하는, 클라우드 서버가 제공된다.
상기 영상 수집부는, 상기 사고가 발생된 시점으로부터 전후 설정된 시간 동안의 영상들을 수집할 수 있다.
상기 가상화부는, 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 추출하고, 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 상기 영상 그룹 내 영상들을 상기 가상의 3차원 입체 영상으로 각각 변환할 수 있다.
상기 가상화부는, 상기 영상 그룹 내 영상별로 상기 영상을 촬영한 카메라와 상기 영상에 포함된 오브젝트와의 거리 및 각도를 계산하고, 계산된 상기 거리 및 각도를 고려하여 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시킬 수 있다.
상기 가상화부는, 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 존재하는 경우 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹을 차순위로 선택하고, 상기 차순위로 선택된 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환한 후 상기 가상 공간에 투영시킬 수 있다.
상기 클라우드 서버는, 상기 가상 공간이 구현되는 경우 사용자 입력에 따른 시점 변화를 통해 상기 가상 공간의 FOV(Field Of View)를 3차원에서 변화시키는 상황 재현부를 더 포함할 수 있다.
상기 상황 재현부는, 시간 흐름에 따른 상기 가상 공간의 변화를 재생하여 상기 사고를 시뮬레이션할 수 있다.
다른 예시적인 실시예에 따르면, 영상 수집부에서, 사고 발생시 상기 사고가 발생된 지점으로부터 설정된 거리 내에 위치하는 차량들의 카메라에서 각각 촬영된 영상들을 수집하는 단계; 영상 처리부에서, 수집된 상기 영상들의 각 프레임에 포함된 모든 오브젝트를 추출하는 단계; 상기 영상 처리부에서, 상기 영상들 중 동일한 오브젝트를 포함하는 영상들을 그룹핑하는 단계; 가상화부에서, 임의의 가상 공간을 생성하는 단계; 상기 가상화부에서, 그룹핑된 복수의 영상 그룹 중 설정된 특정 오브젝트를 포함하는 영상 그룹을 우선적으로 선택하는 단계; 상기 가상화부에서, 선택된 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 기초로 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환하는 단계; 및 상기 가상화부에서, 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는 단계를 포함하는, 상황 재현 방법이 제공된다.
상기 영상들을 수집하는 단계는, 상기 사고가 발생된 시점으로부터 전후 설정된 시간 동안의 영상들을 수집할 수 있다.
상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환하는 단계는, 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 추출하고, 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 상기 영상 그룹 내 영상들을 상기 가상의 3차원 입체 영상으로 각각 변환할 수 있다.
상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는 단계는, 상기 영상 그룹 내 영상별로 상기 영상을 촬영한 카메라와 상기 영상에 포함된 오브젝트와의 거리 및 각도를 계산하고, 계산된 상기 거리 및 각도를 고려하여 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시킬 수 있다.
상기 상황 재현 방법은, 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는 단계 이후, 상기 가상화부에서, 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 존재하는 경우 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹을 차순위로 선택하는 단계; 및 상기 가상화부에서, 상기 차순위로 선택된 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환한 후 상기 가상 공간에 투영시키는 단계를 더 포함할 수 있다.
상기 상황 재현 방법은, 상황 재현부에서, 상기 가상 공간이 구현되는 경우 사용자 입력에 따른 시점 변화를 통해 상기 가상 공간의 FOV(Field Of View)를 3차원에서 변화시키는 단계를 더 포함할 수 있다.
상기 상황 재현 방법은, 상기 상황 재현부에서, 시간 흐름에 따른 상기 가상 공간의 변화를 재생하여 상기 사고를 시뮬레이션하는 단계를 더 포함할 수 있다.
예시적인 실시예에 따르면, 사고 당시, 즉 특정 시각에서의 이미지들을 단순 조합하는 것에 그치는 것이 아니라, 사고 발생 전후 설정된 시간 동안의 영상들을 바탕으로 가상 영상을 새롭게 생성함으로써, 사고 전후의 상황을 보다 정확하게 재현할 수 있다. 이와 같이 생성된 가상 영상은 가상의 3차원 입체 영상이 상호 조합된 형태로 구성되며, 시간 흐름에 따라 사고 상황을 재현할 수 있도록 설정된 시간 동안(예를 들어, 사고 전후 5분 동안) 플레이될 수 있다. 이때, 관리자는 자신이 보고 싶은 각도에서 사고 장면을 확인할 수 있도록 가상 영상의 시점(view)을 자유롭게 변화시킬 수 있다.
도 1은 예시적인 실시예에 따른 상황 재현 시스템의 상세 구성을 나타낸 블록도
도 2는 예시적인 실시예에 따른 클라우드 서버의 상세 구성을 나타낸 블록도
도 3은 예시적인 실시예에 따른 사고 발생 상황의 예시
도 4는 예시적인 실시예에 따른 영상 수집부에서 수집된 영상 #1 의 예시
도 5는 예시적인 실시예에 따른 영상 수집부에서 수집된 영상 #2 의 예시
도 6은 예시적인 실시예에 따른 영상 수집부에서 수집된 영상 #3 의 예시
도 7은 예시적인 실시예에 따른 영상 수집부에서 수집된 영상 #4 의 예시
도 8은 예시적인 실시예에 따른 영상 수집부에서 수집된 영상들에 포함된 오브젝트들의 예시
도 9는 예시적인 실시예에 따른 상황 재현부에서 시뮬레이션하는 가상 영상의 예시
도 10은 예시적인 실시예에 따른 상황 재현 방법을 설명하기 위한 흐름도
도 11은 도 10의 S116 단계를 설명하기 위한 흐름도
도 12는 도 10의 S118 단계를 설명하기 위한 흐름도
도 13은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 예시적인 실시예에 따른 상황 재현 시스템(100)의 상세 구성을 나타낸 블록도이다. 도 1에 도시된 바와 같이, 예시적인 실시예에 따른 상황 재현 시스템(100)은 차량(102), 클라우드 서버(104) 및 관제 단말(106)을 포함한다.
차량(102)은 네트워크를 통해 다른 차량, 교통 인프라(예를 들어, 신호등), 클라우드 서버(104), 관제 단말(106) 등과 연결되어 각종 정보를 송수신하는 커넥티드 카(connected-car) 기반의 공유 차량이다. 차량(102)은 상기 정보를 송수신하기 위한 통신 모듈을 구비할 수 있다. 또한, 차량(102)은 하나 이상의 카메라(미도시)를 구비할 수 있으며, 상기 카메라를 통해 차량(102) 주변의 영상을 촬영할 수 있다. 이때, 카메라는 예를 들어, 전방향 촬영이 가능한 360도 카메라일 수 있다. 또한, 차량(102)은 GPS 모듈(미도시)을 구비할 수 있으며, 상기 GPS 모듈을 통해 자신의 현재 위치를 파악할 수 있다. 본 실시예들에 있어서, 차량(102)은 예를 들어, 택시, 버스 등이 될 수 있으나 이에 한정되는 것은 아니며, 통신 모듈, 카메라, GPS 모듈 등이 구비된 스마트 자전거, 스마트 오토바이까지 모두 포함하는 넓은 의미로 사용된다.
클라우드 서버(104)는 다수의 차량(102) 및 관제 단말(106)과 연결되어 사고 발생시 사고 주변 차량들(102)의 카메라에서 촬영된 영상들을 조합하여 사고 상황을 재현한다. 여기서, 사고는 예를 들어, 차량(102)의 추돌, 충돌, 전복 등과 같은 교통 사고일 수 있다. 클라우드 서버(104)는 사고 발생시 사고 주변 차량들(102)의 카메라에서 촬영된 영상들을 수집하고, 수집된 영상들을 조합하여 사고 재현을 위한 가상 공간을 구현할 수 있다. 클라우드 서버(104)는 상기 가상 공간이 구현되는 경우 사용자 입력에 따른 시점 변화를 통해 상기 가상 공간의 FOV(Field Of View)를 3차원에서 변화시킬 수 있으며, 이에 따라 사고 장면을 보다 용이하게 확인할 수 있다. 또한, 클라우드 서버(104)는 시간 흐름에 따른 상기 가상 공간의 변화(즉, 가상 영상)를 재생하여 상기 사고를 시뮬레이션할 수 있다.
관제 단말(106)은 사고 관제실, 119, 보험회사 등에서 구비하는 단말이다. 관제 단말(106)은 사고 발생을 모니터링하고, 사고 발생 감지시 사고 주변 차량들(102)에게 사고 발생 전후에 촬영된 영상을 클라우드 서버(104)에 업로드할 것을 요청한다. 이를 위해, 관제 단말(106)은 네트워크를 통해 차량(102) 및 클라우드 서버(104)와 연결될 수 있으며, 차량(102)으로부터 차량(102)의 현재 위치정보를 실시간으로 수신할 수 있다. 사고 주변의 차량들(102)은 관제 단말(106)의 요청에 따라 자신의 카메라에서 촬영된 영상을 클라우드 서버(104)로 업로드하고, 클라우드 서버(104)는 상기 영상들을 조합하여 사고 재현을 위한 가상 공간을 구현할 수 있다. 관제 단말(106)은 차량들(102)이 업로드한 영상, 및 사고 재현을 위한 가상 영상을 다운로드 받을 수 있다. 관리자는 상기 가상 영상을 보면서 사고 원인, 과실 여부를 보다 빠르고 정확하게 파악할 수 있다.
도 2는 예시적인 실시예에 따른 클라우드 서버(104)의 상세 구성을 나타낸 블록도이다. 도 2에 도시된 바와 같이, 예시적인 실시예에 따른 클라우드 서버(104)는 영상 수집부(202), 영상 처리부(204), 가상화부(206) 및 상황 재현부(208)를 포함한다.
영상 수집부(202)는 사고 발생시 상기 사고가 발생된 지점으로부터 설정된 거리 내에 위치하는 차량들(102)의 카메라에서 각각 촬영된 영상들을 수집한다. 상술한 바와 같이, 관제 단말(106)은 사고 발생을 모니터링하고, 사고 발생 감지시 사고 주변 차량들(102)에게 사고 발생 전후에 촬영된 영상을 클라우드 서버(104)에 업로드할 것을 요청할 수 있다. 이에 따라, 영상 수집부(202)는 상기 사고가 발생된 시점으로부터 전후 설정된 시간 동안의 영상들을 수집할 수 있다. 예를 들어, 영상 수집부(202)는 사고 발생 시각 전후 5분 동안의 영상들을 수집할 수 있다.
도 3은 예시적인 실시예에 따른 사고 발생 상황의 예시이다.
도 3을 참조하면, 두 대의 차량이 서로 충돌하는 사고가 발생했을 때 관제 단말(106)은 사고 지점 주변의 차량 ①, 차량 ②, 차량 ③, 차량 ④ 에게 사고 발생 전후에 촬영된 영상을 클라우드 서버(104)에 업로드할 것을 요청할 수 있다. 이에 따라, 차량 ①, 차량 ②, 차량 ③, 차량 ④ 는 사고 발생 전후 5분동안 촬영된 영상들을 클라우드 서버(104)로 업로드할 수 있다. 즉, 영상 수집부(202)는 사고 발생시 사고 주변의 차량들(102)의 카메라에서 촬영된 영상들, 즉 영상 #1, 영상 #2, 영상 #3, 영상 #4 를 수집할 수 있다.
도 4 내지 도 7은 영상 수집부에서 수집된 영상 #1, 영상 #2, 영상 #3, 영상 #4 의 예시이다.
도 4는 영상 수집부에서 수집된 영상 #1 의 예시이며, 도 5는 영상 수집부에서 수집된 영상 #2 의 예시이며, 도 6은 영상 수집부에서 수집된 영상 #3 의 예시이며, 도 7은 영상 수집부에서 수집된 영상 #4 의 예시이다.
도 4 내지 도 7에 도시된 바와 같이, 영상 #1, 영상 #2, 영상 #3, 영상 #4 는 다수의 프레임을 포함할 수 있으며, 각 프레임에는 하나 이상의 오브젝트가 포함될 수 있다.
다시 도 2로 돌아오면, 영상 처리부(204)는 수집된 상기 영상들의 각 프레임에 포함된 모든 오브젝트를 추출하고, 상기 영상들 중 동일한 오브젝트를 포함하는 영상들을 그룹핑할 수 있다. 영상 처리부(204)는 추출된 오브젝트 각각을 서로 비교하여 동일한 오브젝트를 갖는 영상들을 그룹핑할 수 있다.
도 8은 예시적인 실시예에 따른 영상 수집부(202)에서 수집된 영상들에 포함된 오브젝트들의 예시이다. 도 8을 참조하면, 영상 #1에는 object a, object b 가 포함되어 있으며, 영상 #2에는 object a, object c, object d 가 포함되어 있으며, 영상 #3에는 object d 가 포함되어 있으며, 영상 #4에는 object e 가 포함되어 있다. 이때, 영상 처리부(204)는 동일한 오브젝트를 갖는 영상들을 아래와 같이 그룹핑할 수 있다.
object a = [영상 #1, 영상 #2]
object b = [영상 #1]
object c = [영상 #2]
object d = [영상 #2, 영상 #3]
object e = [영상 #4]
또한, 영상 처리부(204)는 각 영상이 갖고 있는 객체가 무엇인지 알 수 있도록 각 오브젝트들을 아래와 같이 그룹핑할 수 있다.
영상 #1 = [object a, object b]
영상 #2 = [object a, object c, object d]
영상 #3 = [object d]
영상 #4 = [object e]
다시 도 2로 돌아오면, 가상화부(206)는 임의의 가상 공간을 생성할 수 있다. 예를 들어, 클라우드 서버(104)는 아래와 같이 2개의 비어 있는 배열과 하나의 렌더링 공간을 생성할 수 있다.
공간에 포함된 오브젝트 = []
사용된 영상 = []
또한, 가상화부(206)는 그룹핑된 복수의 영상 그룹 중 설정된 특정 오브젝트를 포함하는 영상 그룹을 우선적으로 선택할 수 있다. 여기서, 특정 오브젝트는 예를 들어, 사고 차량, 상기 사고 차량과 가장 가까운 거리에 위치한 신호등 등과 같이 사고 경위를 파악하는 데 가장 중요한 역할을 하는 오브젝트일 수 있다. 일 예시로서, 상기 특정 오브젝트가 object a 이고 object a 를 포함하는 영상 그룹이 [영상 #1, 영상 #2] 라 가정할 때, 가상화부(206)는 영상 그룹 [영상 #1, 영상 #2] 을 우선적으로 선택할 수 있다.
또한, 가상화부(206)는 선택된 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 기초로 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환할 수 있다. 구체적으로, 가상화부(206)는 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 추출하고, 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 상기 영상 그룹 내 영상들을 상기 가상의 3차원 입체 영상으로 각각 변환할 수 있다. 위 예시에서, 가상화부(206)는 영상 #1 에 포함된 포함된 오브젝트들의 특징점을 추출하고, 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 영상 #1 을 가상의 3차원 입체 영상으로 변환할 수 있다. 또한, 가상화부(206)는 영상 #2 에 포함된 포함된 오브젝트들의 특징점을 추출하고, 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 영상 #2 를 가상의 3차원 입체 영상으로 변환할 수 있다.
또한, 가상화부(206)는 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시킨다. 위 예시에서, 영상 #1 에 대한 가상의 3차원 입체 영상과 영상 #2 에 대한 가상의 3차원 입체 영상이 상기 가상 공간에 투영됨으로써 상술한 배열이 아래와 같이 순차적으로 채워질 수 있다.
i) 영상 #1 에 대한 가상의 3차원 입체 영상을 가상 공간에 투영
공간에 포함된 오브젝트 = [object a, object b]
사용된 영상 = [영상 #1]
ii) 영상 #2 에 대한 가상의 3차원 입체 영상을 가상 공간에 투영
공간에 포함된 오브젝트 = [object a, object b, object c, object d]
사용된 영상 = [영상 #1, 영상 #2]
즉, 영상 #1, 영상 #2 에 대한 가상의 3차원 입체 영상을 가상 공간에 투영시키는 경우 object a, object b, object c, object d 가 가상 공간에 구현되게 된다. 이때, 가상화부(206)는 영상 그룹 내 영상별로 상기 영상을 촬영한 카메라와 상기 영상에 포함된 오브젝트와의 거리 및 각도를 계산하고, 계산된 상기 거리 및 각도를 고려하여 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시킬 수 있다. 예를 들어, 가상화부(206)는 차량 ①의 카메라와 object a, object b 간의 거리 및 각도를 각각 계산하고, 계산된 상기 거리 및 각도를 고려하여 영상 #1 에 대한 가상의 3차원 입체 영상을 가상 공간에 투영시킬 수 있다. 또한, 가상화부(206)는 차량 ②의 카메라와 object a, object c, object d 간의 거리 및 각도를 각각 계산하고, 계산된 상기 거리 및 각도를 고려하여 영상 #2 에 대한 가상의 3차원 입체 영상을 가상 공간에 투영시킬 수 있다. 가상화부(206)는 상기 거리 및 각도에 따라 상기 오브젝트들이 위치할 가상 공간 내의 3차원 좌표를 계산하고, 계산된 좌표에 따라 상기 오브젝트들에 대한 가상의 3차원 입체 영상을 가상 공간에 투영시킬 수 있다.
또한, 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 존재하는 경우, 가상화부(206)는 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹을 차순위로 선택하고, 상기 차순위로 선택된 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환한 후 상기 가상 공간에 투영시킬 수 있다. 위 예시에서, 가상 공간에 구현된 오브젝트들, 즉 object a, object b, object c, object d 중 적어도 하나를 포함하는 영상 그룹이 더 존재하는 경우, 가상화부(206)는 해당 영상 그룹, 즉 [영상 #4]를 차순위로 선택하고 앞선 과정을 반복 수행할 수 있다. 이 경우, [영상 #4]에 포함된 object d 에 대한 가상의 3차원 입체 영상이 상기 가상 공간에 추가적으로 투영될 수 있다. 이와 같은 과정을 반복 수행하는 경우, 사고 차량, 상기 사고 차량과 가장 가까운 거리에 위치한 신호등 등과 같이 사고 경위를 파악하는 데 가장 중요한 역할을 하는 오브젝트뿐 아니라, 그 주변에 위치한 부가적인 오브젝트까지 가상 공간에 구현됨으로써 사고 경위의 파악이 보다 용이해질 수 있다.
상황 재현부(208)는 상기 가상 공간이 구현되는 경우 사용자 입력에 따른 시점 변화를 통해 상기 가상 공간의 FOV(Field Of View)를 3차원에서 변화시킬 수 있다. 이 경우, 관리자는 가상 공간 상에서 시점을 자유롭게 이동하면서 사고 장면을 보다 용이하게 확인할 수 있다. 또한, 상황 재현부(208)는 시간 흐름에 따른 상기 가상 공간의 변화를 재생하여 상기 사고를 시뮬레이션할 수 있다. 예시적인 실시예에 따르면, 사고 당시, 즉 특정 시각에서의 이미지들을 단순 조합하는 것에 그치는 것이 아니라, 사고 발생 전후 설정된 시간 동안의 영상들을 바탕으로 가상 영상을 새롭게 생성함으로써, 사고 전후의 상황을 보다 정확하게 재현할 수 있다.
도 9는 예시적인 실시예에 따른 상황 재현부에서 시뮬레이션하는 가상 영상의 예시이다.
도 9에 도시된 바와 같이, 가상화부(206)에서 생성된 가상 영상은 가상의 3차원 입체 영상이 상호 조합된 형태로 구성되며, 시간 흐름에 따라 사고 상황을 재현할 수 있도록 설정된 시간 동안(예를 들어, 사고 전후 5분 동안) 플레이될 수 있다. 이때, 관리자는 자신이 보고 싶은 각도에서 사고 장면을 확인할 수 있도록 가상 영상의 시점(view)을 자유롭게 변화시킬 수 있다. 예를 들어, 관리자는 마우스와 같은 입력 장치 또는 터치 입력을 통해 자신이 보고자 하는 가상 영상 내 지점을 클릭하거나 드레그함으로써, 가상 영상의 시점(view)을 자유롭게 변화시킬 수 있다.
도 10은 예시적인 실시예에 따른 상황 재현 방법을 설명하기 위한 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
S102 단계에서, 관제 단말(106)은 사고 발생을 감지한다.
S104 단계에서, 관제 단말(106)은 사고 주변 차량들(102)에게 사고 발생 전후에 촬영된 영상을 클라우드 서버(104)에 업로드할 것을 요청한다.
S106 단계에서, 클라우드 서버(104)는 상기 사고가 발생된 지점으로부터 설정된 거리 내에 위치하는 차량들(102)의 카메라에서 각각 촬영된 영상들을 수집한다.
S108 단계에서, 클라우드 서버(104)는 수집된 상기 영상들의 각 프레임에 포함된 모든 오브젝트를 추출한다.
S110 단계에서, 클라우드 서버(104)는 상기 영상들 중 동일한 오브젝트를 포함하는 영상들을 그룹핑한다.
S112 단계에서, 클라우드 서버(104)는 임의의 가상 공간을 생성한다.
S114 단계에서, 클라우드 서버(104)는 그룹핑된 복수의 영상 그룹 중 설정된 특정 오브젝트를 포함하는 영상 그룹을 선택한다.
S116 단계에서, 클라우드 서버(104)는 선택된 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 기초로 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환한다.
S118 단계에서, 클라우드 서버(104)는 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시킨다.
S120 단계에서, 클라우드 서버(104)는 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 존재하는지의 여부를 판단한다. 판단 결과, 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 존재하는 경우, 클라우드 서버(104)는 S114 단계로 되돌아가 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹을 차순위로 선택한다. 이후, 클라우드 서버(104)는 S116 단계 내지 S120 단계를 반복 수행한다.
S122 단계에서, 클라우드 서버(104)는 S120 단계 수행 결과 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 더 이상 존재하지 않는 것으로 판단되는 경우 상기 가상 공간을 통해 사고 상황을 재현한다. 구체적으로, 클라우드 서버(104)는 사용자 입력에 따른 시점 변화를 통해 상기 가상 공간의 FOV를 3차원에서 변화시킬 수 있다. 또한, 클라우드 서버(104)는 시간 흐름에 따른 상기 가상 공간의 변화를 재생하여 상기 사고를 시뮬레이션할 수 있다.
도 11은 도 10의 S116 단계를 설명하기 위한 흐름도이다.
S202 단계에서, 클라우드 서버(104)는 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 추출한다.
S204 단계에서, 클라우드 서버(104)는 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 상기 영상 그룹 내 영상들을 상기 가상의 3차원 입체 영상으로 각각 변환한다.
도 12는 도 10의 S118 단계를 설명하기 위한 흐름도이다.
S302 단계에서, 클라우드 서버(104)는 상기 영상 그룹 내 영상별로 상기 영상을 촬영한 카메라와 상기 영상에 포함된 오브젝트와의 거리 및 각도를 계산한다.
S304 단계에서, 클라우드 서버(104)는 계산된 상기 거리 및 각도를 고려하여 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시킨다.
도 13은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.
도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 훈련 시나리오의 상황 재현 시스템(100), 또는 상황 재현 시스템 (100)에 포함되는 하나 이상의 컴포넌트일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 전술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
10 : 컴퓨팅 환경
12 : 컴퓨팅 장치
14 : 프로세서
16 : 컴퓨터 판독 가능 저장 매체
18 : 통신 버스
20 : 프로그램
22 : 입출력 인터페이스
24 : 입출력 장치
26 : 네트워크 통신 인터페이스
100 : 상황 재현 시스템
102 : 차량
104 : 클라우드 서버
106 : 관제 단말
202 : 영상 수집부
204 : 영상 처리부
206 : 가상화부
208 : 상황 재현부

Claims (14)

  1. 사고 발생시 상기 사고가 발생된 지점으로부터 설정된 거리 내에 위치하는 차량들의 카메라에서 각각 촬영된 영상들을 수집하는 영상 수집부;
    수집된 상기 영상들의 각 프레임에 포함된 모든 오브젝트를 추출하고, 상기 영상들 중 동일한 오브젝트를 포함하는 영상들을 그룹핑하는 영상 처리부; 및
    임의의 가상 공간을 생성하고, 그룹핑된 복수의 영상 그룹 중 설정된 특정 오브젝트를 포함하는 영상 그룹을 우선적으로 선택하며, 선택된 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 기초로 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환하고, 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키고, 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 존재하는 경우 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹을 차순위로 선택하고, 상기 차순위로 선택된 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환한 후 상기 가상 공간에 투영시키는 가상화부를 포함하는, 클라우드 서버.
  2. 청구항 1에 있어서,
    상기 영상 수집부는, 상기 사고가 발생된 시점으로부터 전후 설정된 시간 동안의 영상들을 수집하는, 클라우드 서버.
  3. 청구항 1에 있어서,
    상기 가상화부는, 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 추출하고, 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 상기 영상 그룹 내 영상들을 상기 가상의 3차원 입체 영상으로 각각 변환하는, 클라우드 서버.
  4. 청구항 3에 있어서,
    상기 가상화부는, 상기 영상 그룹 내 영상별로 상기 영상을 촬영한 카메라와 상기 영상에 포함된 오브젝트와의 거리 및 각도를 계산하고, 계산된 상기 거리 및 각도를 고려하여 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는, 클라우드 서버.
  5. 삭제
  6. 청구항 1에 있어서,
    상기 가상 공간이 구현되는 경우 사용자 입력에 따른 시점 변화를 통해 상기 가상 공간의 FOV(Field Of View)를 3차원에서 변화시키는 상황 재현부를 더 포함하는, 클라우드 서버.
  7. 청구항 6에 있어서,
    상기 상황 재현부는, 시간 흐름에 따른 상기 가상 공간의 변화를 재생하여 상기 사고를 시뮬레이션하는, 클라우드 서버.
  8. 영상 수집부에서, 사고 발생시 상기 사고가 발생된 지점으로부터 설정된 거리 내에 위치하는 차량들의 카메라에서 각각 촬영된 영상들을 수집하는 단계;
    영상 처리부에서, 수집된 상기 영상들의 각 프레임에 포함된 모든 오브젝트를 추출하는 단계;
    상기 영상 처리부에서, 상기 영상들 중 동일한 오브젝트를 포함하는 영상들을 그룹핑하는 단계;
    가상화부에서, 임의의 가상 공간을 생성하는 단계;
    상기 가상화부에서, 그룹핑된 복수의 영상 그룹 중 설정된 특정 오브젝트를 포함하는 영상 그룹을 우선적으로 선택하는 단계;
    상기 가상화부에서, 선택된 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 기초로 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환하는 단계;
    상기 가상화부에서, 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는 단계;
    상기 가상화부에서, 상기 영상 그룹 중 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹이 존재하는 경우 상기 가상 공간에 구현된 오브젝트들 중 적어도 하나를 포함하는 영상 그룹을 차순위로 선택하는 단계; 및
    상기 가상화부에서, 상기 차순위로 선택된 상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환한 후 상기 가상 공간에 투영시키는 단계를 포함하는, 상황 재현 방법.
  9. 청구항 8에 있어서,
    상기 영상들을 수집하는 단계는, 상기 사고가 발생된 시점으로부터 전후 설정된 시간 동안의 영상들을 수집하는, 상황 재현 방법.
  10. 청구항 8에 있어서,
    상기 영상 그룹 내 영상들을 가상의 3차원 입체 영상으로 각각 변환하는 단계는, 상기 영상 그룹 내 영상들에 포함된 오브젝트들의 특징점을 추출하고, 시간 흐름에 따른 상기 특징점의 위치 변화를 추적하여 상기 영상 그룹 내 영상들을 상기 가상의 3차원 입체 영상으로 각각 변환하는, 상황 재현 방법.
  11. 청구항 10에 있어서,
    상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는 단계는, 상기 영상 그룹 내 영상별로 상기 영상을 촬영한 카메라와 상기 영상에 포함된 오브젝트와의 거리 및 각도를 계산하고, 계산된 상기 거리 및 각도를 고려하여 상기 가상의 3차원 입체 영상 각각을 상기 가상 공간에 투영시키는, 상황 재현 방법.
  12. 삭제
  13. 청구항 8에 있어서,
    상황 재현부에서, 상기 가상 공간이 구현되는 경우 사용자 입력에 따른 시점 변화를 통해 상기 가상 공간의 FOV(Field Of View)를 3차원에서 변화시키는 단계를 더 포함하는, 상황 재현 방법.
  14. 청구항 13에 있어서,
    상기 상황 재현부에서, 시간 흐름에 따른 상기 가상 공간의 변화를 재생하여 상기 사고를 시뮬레이션하는 단계를 더 포함하는, 상황 재현 방법.
KR1020190122989A 2019-10-04 2019-10-04 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법 KR102095454B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190122989A KR102095454B1 (ko) 2019-10-04 2019-10-04 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190122989A KR102095454B1 (ko) 2019-10-04 2019-10-04 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법

Publications (1)

Publication Number Publication Date
KR102095454B1 true KR102095454B1 (ko) 2020-03-31

Family

ID=70002105

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190122989A KR102095454B1 (ko) 2019-10-04 2019-10-04 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법

Country Status (1)

Country Link
KR (1) KR102095454B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220018250A (ko) * 2020-08-06 2022-02-15 인하대학교 산학협력단 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템
KR20230111102A (ko) 2022-01-17 2023-07-25 강소영 사건중계 시스템 및 그 동작방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130112311A (ko) * 2012-04-03 2013-10-14 삼성테크윈 주식회사 고밀도 삼차원 영상 재구성 장치 및 방법
KR20160112817A (ko) * 2015-03-20 2016-09-28 현대자동차주식회사 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법
KR20180024756A (ko) * 2016-08-31 2018-03-08 아진산업(주) 다시점 블랙박스 영상 데이터를 이용한 교통사고 분석시스템
KR20180086900A (ko) * 2017-01-24 2018-08-01 인하대학교 산학협력단 커넥티드 블랙박스
KR20190106870A (ko) 2019-07-04 2019-09-18 엘지전자 주식회사 공유형 차량 관리 장치 및 공유형 차량의 관리 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130112311A (ko) * 2012-04-03 2013-10-14 삼성테크윈 주식회사 고밀도 삼차원 영상 재구성 장치 및 방법
KR20160112817A (ko) * 2015-03-20 2016-09-28 현대자동차주식회사 사고 정보 분석 장치, 이를 포함하는 서버 및 사고 정보 분석 방법
KR20180024756A (ko) * 2016-08-31 2018-03-08 아진산업(주) 다시점 블랙박스 영상 데이터를 이용한 교통사고 분석시스템
KR20180086900A (ko) * 2017-01-24 2018-08-01 인하대학교 산학협력단 커넥티드 블랙박스
KR20190106870A (ko) 2019-07-04 2019-09-18 엘지전자 주식회사 공유형 차량 관리 장치 및 공유형 차량의 관리 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220018250A (ko) * 2020-08-06 2022-02-15 인하대학교 산학협력단 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템
KR102376526B1 (ko) 2020-08-06 2022-03-18 인하대학교 산학협력단 자율주행차량 데이터 및 cctv 카메라 영상을 활용한 사고상황 재현 방법 및 시스템
KR20230111102A (ko) 2022-01-17 2023-07-25 강소영 사건중계 시스템 및 그 동작방법

Similar Documents

Publication Publication Date Title
US10373387B1 (en) Systems and methods for enhancing and developing accident scene visualizations
US10230779B2 (en) Content provision system, information processing apparatus and content reproduction method
CN106791613B (zh) 一种基于3dgis和视频相结合的智能监控系统
CN110164135B (zh) 一种定位方法、定位装置及定位系统
CN113038264B (zh) 直播视频处理方法、装置、设备和存储介质
CN111766951B (zh) 图像显示方法和装置、计算机系统和计算机可读存储介质
JP2012014690A (ja) 3次元拡張現実提供装置及び方法
US20230137219A1 (en) Image processing system and method in metaverse environment
KR102095454B1 (ko) 커넥티드 카를 위한 클라우드 서버 및 상황 재현 방법
WO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
KR20190127716A (ko) 디지털, 물리적, 시간 또는 공간적 발견 서비스를 이용한 공유 합성 현실 체험 시스템 및 방법
CN104798128A (zh) 注解方法和装置
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
US20220229759A1 (en) Method, device, and system for simulation test
US10269181B2 (en) Methods and systems for generating a virtualized projection of a customized view of a real-world scene for inclusion within virtual reality media content
EP3229174A1 (en) Method for video investigation
CN112926083B (zh) 基于建筑信息模型的交互处理方法及相关装置
WO2020098431A1 (zh) 一种构建地图模型的方法及装置
JP2023530545A (ja) 空間幾何情報推定モデルの生成方法及び装置
CN111311757A (zh) 一种场景合成方法、装置、存储介质及移动终端
EP2093999A1 (en) Integration of video information
KR20170055147A (ko) 영상 내에서 특정 지점의 위치를 결정하기 위한 장치 및 그 방법
US20230298260A1 (en) Image processing device, image processing method, and program
Yus et al. MultiCAMBA: a system for selecting camera views in live broadcasting of sport events using a dynamic 3D model
KR20130118761A (ko) 증강 현실 생성을 위한 방법 및 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant