KR102260004B1 - 보행자 인식 능동 표시 방법 및 이러한 방법을 수행하는 장치 - Google Patents
보행자 인식 능동 표시 방법 및 이러한 방법을 수행하는 장치 Download PDFInfo
- Publication number
- KR102260004B1 KR102260004B1 KR1020190164886A KR20190164886A KR102260004B1 KR 102260004 B1 KR102260004 B1 KR 102260004B1 KR 1020190164886 A KR1020190164886 A KR 1020190164886A KR 20190164886 A KR20190164886 A KR 20190164886A KR 102260004 B1 KR102260004 B1 KR 102260004B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- projection image
- recognition
- active display
- display device
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 보행자 인식 능동 표시 방법 및 이러한 방법을 수행하는 장치에 관한 것이다. 보행자 인식 능동 표시 방법은 보행자 인식 능동 표시 장치가 도로 표지를 생성하는 단계, 보행자 인식 능동 표시 장치가 객체를 인식하는 단계와 보행자 인식 능동 표시 장치가 객체에 대한 객체 인지 표시를 생성하는 단계를 포함할 수 있다.
Description
본 발명은 보행자 인식 능동 표시 방법 및 이러한 방법을 수행하는 장치에 관한 것이다. 보다 상세하게는 횡단 보도와 같은 교통 표시 상에서 객체인 보행자를 인식하고 인식된 보행자를 기반으로 표시를 수행하기 위한 보행자 인식 능동 표시 방법 및 이러한 방법을 수행하는 장치에 관한 것이다.
프로젝션 매핑은 대상물 표면에 빛으로 이루어진 영상을 투사하여 변화를 줌으로써 현실에 존재하는 대상이 다른 성격을 가진 것처럼 보이도록 하는 기술이다. 프로젝션 기반 증강 현실 산업은 하나의 독립된 시장으로 표현되지 않고 다양한 응용 분야에 따라 매출이 발생하고 있다. 전시 및 광고 분야에 활용을 통해 디지털 사이니지와 미디어 파사드에 활용이 가능하며 디지털 사이니지 분야의 경우 세계 시장 2016년 132억달러 및 금년 국내 시장 1.1조로 성장할 것으로 예상된다. AR(augmented reality)/VR(virtual reality) 시장의 성장으로 2016년 전세계 AR/VR 시장은 50억 달러로 추정되며 2020년에는 1,500억 달러에 이를 것으로 전망되고 있다. 세계 프로젝터 시장은 연간 2.2백만 대의 시장 규모를 가지고 꾸준한 성장을 하고 있다.
국내 프로젝터 시장은 연간 10만 대 규모로 추정되며 HD(high definition)급 고화질 홈시어터용 프로젝터나 미니 프로젝터, 피코 프로젝터들의 출시가 확대되고 있다. 증강 현실/가상 현실은 다양한 방향으로 비즈니스가 진행될 것이며 시장 규모 순으로 게임, 하드웨어, 영화, 테마파크, 군사, 전시, 교육 등에 활용되고 게임이 전체의 절반 정도를 차지할 것으로 예상된다. 프로젝션 기반 증강 현실과 직접적으로 관련된 시장은 전시, 의료, 교육, 홍보, 증강/가상 현실 콘텐츠, 국방 및 훈련 시뮬레이터, 테마파크 등이며 전세계적으로 다양한 수요가 확산되고 있다.
이러한 프로젝션 매핑 기반 증강 현실 기술은 도로 상황 하에서도 사용될 수 있다. 도로 상황 하에서 객체(예를 들어, 보행자)를 인식하고 도로 상황에 맞는 프로젝션을 통해 도로 상황을 개선하고 도로의 안전을 향상 시키기 위한 방법에 대한 연구가 필요하다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 도로 환경을 증강 현실 기술을 기반으로 구현하는 기술을 통해 횡단 보도와 같은 교통 표지를 구현하고, 증강 현실 기술을 기반을 구현된 교통 표지 상에서 보행자들에게 발생될 수 있는 사고를 감소시키는 것을 목적으로 한다.
또한, 본 발명은, 프로젝션 매핑 기술을 기반으로 횡단 보도와 같은 교통 표지를 생성하여 증강 현실 기반 도로 환경을 구현하고, 증강 현실 기반 도로 환경 상에서 객체를 정확하게 인식한 후 프로젝션 매핑 기술을 사용하여 인식된 객체에 별도의 표지를 생성하여 도로 상에서 발생될 수 있는 사고를 감소시키는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 실시예에 따르면, 보행자 인식 능동 표시 방법은 보행자 인식 능동 표시 장치가 도로 표지를 생성하는 단계, 상기 보행자 인식 능동 표시 장치가 객체를 인식하는 단계와 상기 보행자 인식 능동 표시 장치가 상기 객체에 대한 객체 인지 표시를 생성하는 단계를 포함할 수 있다.
한편, 상기 도로 표지는 제1 프로젝션 영상을 기반으로 생성되고, 상기 객체 인지 표시는 제2 프로젝션 영상을 기반으로 생성될 수 있다.
또한, 상기 제2 프로젝션 영상 및 상기 제1 프로젝션 영상은 중첩되어 프로젝션될 수 있다.
본 발명의 다른 실시예에 따르면, 보행자 인식 능동 표시 장치는 영상 정보를 생성하는 영상 촬상부와 상기 영상 정보를 기반으로 도로 표지를 생성하고, 객체를 인식하고, 상기 객체에 대한 객체 인지 표시를 생성하도록 구현되는 프로세서를 포함할 수 있다.
한편, 상기 도로 표지는 제1 프로젝션 영상을 기반으로 생성되고, 상기 객체 인지 표시는 제2 프로젝션 영상을 기반으로 생성될 수 있다.
또한, 상기 제2 프로젝션 영상 및 상기 제1 프로젝션 영상은 중첩되어 프로젝션될 수 있다.
본 발명에 의하면, 도로 환경을 증강 현실 기술을 기반으로 구현하는 기술을 통해 횡단 보도와 같은 교통 표지가 구현되고, 증강 현실 기술을 기반을 구현된 교통 표지 상에서 보행자들에게 발생될 수 있는 사고가 감소될 수 있다.
또한, 본 발명에 의하면, 프로젝션 매핑 기술을 기반으로 횡단 보도와 같은 교통 표지를 생성하여 증강 현실 기반 도로 환경을 구현하고, 증강 현실 기반 도로 환경 상에서 객체를 정확하게 인식한 후 프로젝션 매핑 기술을 사용하여 인식된 객체에 별도의 표지를 생성하여 도로 상에서 발생될 수 있는 사고가 감소될 수 있다.
도 1은 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 구현한 구조물을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 기반으로 구현된 도로 환경을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 실시간 객체 인식 과정을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 실시간 객체 인식 방법을 나타낸 개념도이다.
도 7은 본 발명의 실시예에 따른 광 표지 모듈 기반의 교통 표지 방법을 나타낸 개념도이다.
도 8은 본 발명의 실시예에 따른 프로젝션 방법을 나타낸 개념도이다.
도 9는 본 발명의 실시예에 따른 제2 프로젝션 영상 생성 방법을 나타낸 개념도이다.
도 10은 본 발명의 실시예에 따른 제2 프로젝션 영상 생성 방법을 나타낸 개념도이다.
도 11은 본 발명의 실시예에 따른 객체 인식에 따른 객체 인지 표지 생성 방법을 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 구현한 구조물을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 기반으로 구현된 도로 환경을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 실시간 객체 인식 과정을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 실시간 객체 인식 방법을 나타낸 개념도이다.
도 7은 본 발명의 실시예에 따른 광 표지 모듈 기반의 교통 표지 방법을 나타낸 개념도이다.
도 8은 본 발명의 실시예에 따른 프로젝션 방법을 나타낸 개념도이다.
도 9는 본 발명의 실시예에 따른 제2 프로젝션 영상 생성 방법을 나타낸 개념도이다.
도 10은 본 발명의 실시예에 따른 제2 프로젝션 영상 생성 방법을 나타낸 개념도이다.
도 11은 본 발명의 실시예에 따른 객체 인식에 따른 객체 인지 표지 생성 방법을 나타낸 개념도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여 지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 나타낸 개념도이다.
도 1에서는 프로젝터를 기반으로 도로 상황 하에서 교통 표지(예를 들어, 횡단 보도 표지) 및 이동 객체에 대한 이동 객체 표지를 생성하기 위한 보행자 인식 능동 표시 장치가 개시된다.
도 1을 참조하면, 보행자 인식 능동 표시 장치는 영상 촬상부(100), 영상 처리부(110), 메인 프로세서(130), 장치 제어부(140), 장치부(150), 환경 관리부(160), 프로젝터(170)를 포함할 수 있다.
영상 촬상부(100)는 복수의 카메라를 포함할 수 있고, 복수의 카메라 각각은 도로 상황에 대한 촬상을 위해 구현될 수 있다. 본 발명의 실시예에 따르면 프로젝터(170)는 횡단보도에 대한 프로젝션 및 횡단 보도를 건너는 보행자를 인식하여 객체에 대한 프로젝션을 수행할 수 있다. 영상 촬상부(100)는 프로젝터(170)의 프로젝션을 위한 현재 상황 정보를 영상으로 획득하기 위해 구현되고 영상 촬상부(100)에 대응되는 복수의 카메라가 복수의 장소에 설치되어 현재 상황을 복수의 영상 정보로서 획득할 수 있다.
영상 처리부(110)는 영상 촬상부(100)에서 촬상된 영상에 대한 처리를 위해 구현될 수 있다. 예를 들어, 영상 처리부(110)는 촬상된 영상에 대한 영상 분석을 통해 객체(예를 들어, 교통 표지 객체, 이동 객체)에 대한 분석 및 객체에 대한 인식을 수행할 수도 있다. 영상 처리부(110)는 영상 분석을 통해 횡단 보도를 건너는 이동 객체로서 보행자, 횡단 보도 주변을 운행하는 운전자 차량을 인식하고, 인식 결과를 메인 프로세서(130)로 전달할 수 있다. 또한, 영상 처리부(110)는 영상 분석을 통해 프로젝션된 교통 표지인 횡단 보도를 교통 표지 객체로서 인식하고, 인식 결과를 메인 프로세서(130)로 전달할 수 있다.
또한, 영상 처리부(110)는 영상 분석을 통해 프로젝션을 통해 출력할 프로젝션 매핑을 위한 보정값을 추출할 수도 있다. 현재 프로젝션되는 영상의 영상 왜곡을 판단하고 영상 왜곡을 보정하기 위한 보정값이 영상 처리부(110)를 통해 추출될 수 있다.
본 발명의 실시예에 따르면 영상 처리부(110)가 별도로 구현되지 않고, 메인 프로세서(130)를 기반으로 영상에 대한 처리가 수행될 수도 있다.
메인 프로세서(130)는 영상 촬상부(100), 영상 처리부(110), 장치 제어부(140), 장치부(150), 환경 관리부(160), 프로젝터(170)의 제어를 위해 구현될 수 있다.
장치부(150)는 보행자 인식 능동 표시 시스템을 구동시키기 위한 추가적인 장치를 포함할 수 있다. 예를 들어, 장치부(150)는 객체 학습부, 통신부, 저장부, 센서부 등을 포함할 수 있다.
객체 학습부는 도로 환경 상에서 이동 객체, 도로 환경에 대한 학습을 위해 구현될 수 있다. 본 발명에서는 이동 객체에 대한 인식력을 높이고, 이동 객체에 대한 반응의 정확도를 높이기 위해 도로 환경 상에서 이동 객체의 동작 및 도로 환경에 대해 인공 지능 기반의 학습을 수행할 수 있고, 객체 학습부는 이러한 인공 지능 기반의 학습을 위해 구현될 수 있다. 객체 학습부는 도로 환경을 촬상하고 촬상 영상을 기반으로 보행 객체의 동작, 도로 환경을 학습할 수 있다. 학습 결과는 메인 프로세서로 전달되어 보다 정밀한 증강 현실 기반 도로 환경을 구현하기 위해 활용될 수 있다.
통신부는 도로 환경 구현 장치 및/또는 외부 장치와의 통신을 위해 구현될 수 있다. 예를 들어, 통신부는 외부 교통 환경 제어 장치로부터 교통 제어 정보(예를 들어, 신호 등 제어 정보) 등을 수신할 수 있다. 통신부는 학습 결과 정보를 다른 도로 환경 구현 장치와 공유할 수도 있다. 저장부는 영상 정보, 학습 결과 정보 등과 같은 데이터의 저장을 위해 구현될 수 있다.
장치 제어부(140)는 별도의 장치 제어를 위해 구현될 수 있고, 이러한 장치 제어부(140)가 별도로 구현되지 않고, 메인 프로세서(130)에서 장치에 대한 제어가 수행될 수 도 있다.
환경 관리부(160)는 보행자 인식 능동 표시 시스템의 환경을 제어하고 관리하기 위해 구현될 수 있다. 환경 관리부(160)는 보행자 인식 능동 표시 시스템의 오류 없는 동작을 위한 환경을 형성하기 위해 구현될 수 있다.
프로젝터(170)는 증강 현실 기술을 기반으로 도로 환경 상에 교통 표지를 생성하기 위해 구현될 수 있다. 예를 들어, 프로젝터(170)는 프로젝션 매핑 기술을 기반으로 횡단 보도와 같은 교통 표지를 생성할 수 있다. 프로젝터(170)는 도로 환경을 판단하여 도로 환경을 기반으로 프로젝션 매핑을 수행하고 프로젝터(170)를 기반으로 도로 상에 교통 표지를 프로젝션할 수 있다.
또한, 프로젝터(170)는 인식된 객체를 기반으로 증강 현실 환경을 구현할 수 있다. 예를 들어, 프로젝터(170)가 증강 현실 기술을 기반으로 교통 표지로서 횡단 보도를 프로젝션하여 제1 증강 현실 환경을 구현하고, 또한, 영상에 대한 분석을 통한 보행자, 차량 등과 같은 이동 객체의 인식 결과를 기반으로 이동 객체를 대상으로 한 제2 증강 현실 환경을 구현할 수 있다. 프로젝터(170)는 보행자와 같은 이동 객체에 대한 별도의 프로젝션을 수행하여 횡단 보도를 건너는 이동 객체에 대한 인식력을 높일 수 있다.
이하, 설명의 편의상 영상 촬상부(100), 영상 처리부(110), 메인 프로세서(130), 장치 제어부(140), 장치부(150), 환경 관리부(160), 프로젝터(170)는 보행자 인식 능동 표시 장치로서 하나의 장치로서 구현되는 경우가 가정되나 보행자 인식 능동 표시 장치를 구성하는 구성부가 분할되어 복수의 장치로 구현될 수도 있고, 이러한 실시예 또한 본 발명의 권리 범위에 포함된다.
도 2는 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 구현한 구조물을 나타낸 개념도이다.
도 2에서는 보행자 인식 능동 표시 장치가 도로 환경 하에서 구현된 경우가 개시된다.
도 2를 참조하면, 보행자 인식 능동 표시 장치(200)가 도로 환경 상에 설치될 수 있다.
도로 주변에 제1 지지대, 및 제2 지지대가 설치될 수 있고, 프로젝터를 포함하는 보행자 인식 능동 표시 장치(200)는 도로 위에 제1 지지대, 및 제2 지지대를 기반으로 연결된 브릿지 상에 설치될 수 있다. 보행자 인식 능동 표시 장치(200)는 증강 현실 환경을 정확하게 구현하기 위한 최적 프로젝션을 위해 프로젝션 최적화 위치에 설치될 수 있다. 프로젝션 최적화 위치는 도로 환경을 기반으로 결정될 수 있다.
전술한 바와 같이 객체 인식 및 객체 학습을 수행하는 객체 인식부 및 객체 학습부(250)는 도로 주변에 설치되어 도로 표지(예를 들어, 횡단 보도) 상에서 움직이는 객체에 대한 인식 및 학습을 수행할 수 있다. 객체 인식 및 객체 학습 결과는 보행자 인식 능동 표시 장치(200)로 전달되어 증강 현실 환경을 구현하기 위해 활용될 수 있다. 객체 인식 및 객체 학습을 수행하는 객체 인식부 및 객체 학습부(250)는 보행자 인식 능동 표시 장치(200)와 하나의 장치로 구현될 수도 있다.
도 2에서 개시된 보행자 인식 능동 표시 장치(200)의 설치 위치는 하나의 예시로서 도로 환경에 따라 다양한 위치에 설치될 수 있고, 이러한 실시예 또한 본 발명의 권리 범위에 포함될 수 있다.
도 3은 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 기반으로 구현된 도로 환경을 나타낸 개념도이다.
도 3에서는 보행자 인식 능동 표시 장치가 도로 환경 상에서 횡단 보도를 도로 표지로서 생성한 것이 개시된다.
도 3을 참조하면, 도로 표지로서 입체적인 횡단 보도 이미지가 도로 상에 프로젝션될 수 있다. 이러한 입체적인 횡단 보도 이미지는 시간의 흐름에 따라 다양하게 변화되어 보행자 및 운전자가 보다 정확하게 횡단 보도를 인식하도록 할 수 있다. 이뿐만 아니라 횡단 보도를 건너는 보행자 및 횡단 보도에 접근하는 차량에도 별도의 프로젝션을 통해 도로 환경에서 보행자와 차량에 대한 인식력을 증가시킬 수 있다.
도 4는 본 발명의 실시예에 따른 보행자 인식 능동 표시 장치를 나타낸 개념도이다.
도 4에서는 보행자 인식 능동 표시 장치에서 카메라를 통해 입력되는 영상을 분석하여 프로젝션 영상을 출력하기 위한 방법이 개시된다.
도 4를 참조하면, 보행자 인식 능동 표시 장치는 실시간 객체 인식부(400), 시스템 제어부(430), 영상 및 신호 표출부(450)를 포함할 수 있다.
실시간 객체 인식부(400)는 영상 촬상부를 통해 촬상된 영상를 기반으로 객체를 인식하기 위해 구현될 수 있다. 구체적으로 실시간 객체 인식부는 영상 제어부(405), 전처리부(410), 객체 검지부(415), 검지 객체 좌표 및 속도 벡터값 산출부(420)를 포함할 수 있다.
영상 제어부(405)는 입력되는 영상에 대한 제어를 위해 구현될 수 있다. 입력되는 영상은 시스템 제어부의 영상 저장부(435)에 저장될 수 있다.
전처리부(410)는 입력되는 영상에 대한 전처리를 위해 구현될 수 있다. 전처리부(410)는 입력되는 영상에 대한 전처리 절차를 통해 영상 상에서 객체가 보다 용이하게 인식될 수 있도록 구현될 수 있다.
객체 검지부(415)는 전처리부(410)에 의해 전처리된 전처리 영상에서 객체를 검지하기 위해 구현될 수 있다. 객체 검지부(415)는 횡단 보도와 같은 교통 표지를 객체로서 검지할 수 있고, 횡단 보도를 건너는 사람과 같은 이동 객체를 검지하기 위해 구현될 수 있다.
검지 객체 좌표 및 속도 벡터값 산출부(420)는 검지된 이동 객체에 대한 좌표를 설정하고, 좌표를 기준으로 움직이는 이동 객체의 좌표 및 속도 벡터를 결정하기 위해 구현될 수 있다.
시스템 제어부(430)는 영상 저장부(435), 영상 지시부(440) 및 상태 제어부(445)를 포함할 수 있다.
영상 저장부(435)는 영상 촬상부에 의해 촬상되는 영상을 로우 데이터(Raw Data 형식으로 전송받아 저장하는 모듈로서 이벤트의 발생시 저장할 수 있다.
영상 지시부(440)는 사전 제작된 배경 영상과 전달받은 좌표 상의 위치로 마스크 영상을 생성을 지시하고, 또한 영상 지시부(440)는 해당 위치의 근접값을 가지는 광 표지 모듈에 표출 지시하기 위해 구현될 수 있다.
상태 제어부(445)는 사용자에게 사용자 인터페이스를 통해 시스템 정보를 보여주고 사용자에 의한 보행자 인식 능동 표시 장치의 제어를 가능하게 하기 위해 구현될 수 있다. 또한, 상태 제어부(445)는 보행자 신호의 상태에 따라 배경 영상 유무 및 광 표지 방식을 제어하기 위해 구현될 수 있다. 이뿐만 아니라, 상태 제어부(445)는 보행자 인식 능동 표시 장치의 운전 가능 환경과 이상 유무를 판단하며, 해당 제어 및 운전 기록을 생성하기 위해 구현될 수 있다.
영상 및 신호 표출부(450)는 배경 영상 생성부(455), 마스크 생성부(460), 영상 출력부(465) 및 광 신호 출력부(또는 광 표지 모듈)(470)를 포함할 수 있다.
배경 영상 생성부(455)는 사전에 저장해둔 영상을 영상 지시부의 명령에 따라 생성하기 위해 구현될 수 있다. 배경 영상은 프로젝션되는 교통 표지인 횡단 보도일 수 있다.
마스크 생성부(460)는 이동 객체의 위치에 대한 정보를 기반으로 사전 생성된 마스킹 영상을 생성하기 위해 구현될 수 있다. 또는 배경 영상에 대한 별도의 마스킹 영상을 생성하기 위해 구현될 수 있다.
영상 출력부(465)는 배경 영상에 생성된 마스킹 영상을 겹쳐 통합 영상 신호로서 출력하기 위해 구현될 수 있다.
광 신호 출력부(또는 광 표지 모듈)(470)는 영상 지시부의 광 제어 장치를 통해 광을 출력하기 위해 구현될 수 있다. 광 신호 출력부(또는 광 표지 모듈)(470)을 기반으로 광을 출력하는 방법은 후술된다.
도 5는 본 발명의 실시예에 따른 실시간 객체 인식 과정을 나타낸 개념도이다.
도 5에서는 횡단 보도와 같은 교통 표지에 대하여 도로 환경을 고려하여 영상 변환을 수행하여 교통 표지를 객체로서 추출하여 관심 영역으로 설정하고 좌표 정보를 추출하기 위한 방법이 개시된다. 특히 횡단보도와 같은 프로젝션 기반으로 출력되는 교통 표지를 교통 표지 객체로서 인식하여 출력하기 위한 방법이 개시된다.
도 5를 참조하면, 영상 촬상부는 프로젝터에 의해 출력되는 횡단 보도 영상을 촬상할 수 있고, 촬상된 횡단 보도 영상은 변환되어 관심 영역으로서 설정될 수 있다. 이러한 변환은 프로젝션 기반으로 생성되는 횡단 보도와 같은 교통 표지가 왜곡된 경우 변환하여 2차원 평면상으로 표현하여 프로젝션된 횡단 보도에 대한 마스킹, 관심 영역 설정 및 2차원 좌표 정보로의 표현을 수행하기 위해 구현될 수 있다.
구체적으로 영상 촬상부에 의해 촬상된 원영상에 대하여 아핀 변환(Affine transform)을 수행하여 2차원 평면으로 변환시킬 수 있다(단계 S500).
2차원 평면 변환 영상에 대해서 교통 표지 객체(예를 들어, 횡단 보도)에 해당하는 부분이 인식되고, 그 외의 부분은 마스킹될 수 있다(단계 S510).
교통 표지 객체는 프로젝션된 횡단보도와 같은 표지일 수 있다. 마스킹 단계가 수행된 이후, 마스킹 영역을 제외한 영역이 관심 영역으로 설정될 수 있다.
설정된 관심 영역은 2차원 좌표축으로 표현될 수 있고, 관심 영역 상의 특정 위치는 좌표 정보로 특정될 수 있다.
도 6은 본 발명의 실시예에 따른 실시간 객체 인식 방법을 나타낸 개념도이다.
도 6에서는 도 5에서 마스킹 기반으로 설정된 관심 영역 상에서 이동 객체를 인식하기 위한 방법이 개시된다.
도 6을 참조하면, 객체 트래킹 처리가 수행될 수 있다.
객체 트래킹 처리는 관심 영역에 이동 객체의 움직임이 있는지 여부를 판단하고, 이동 객체의 움직임 영역을 움직임 판단 형상(예를 들어, 사각형)으로 확보하기 위해 구현될 수 있다(단계 S600).
움직임 판단 형상 상에 위치한 이동 객체가 사람인지 여부에 대한 판단이 수행될 수 있다(단계 S610).
움직임 판단 형상 상에 이동 객체가 사람인지에 대한 판단이 수행될 수 있다.
움직임 판단 형상 상에 위치한 이동 객체가 사람인 경우, 움직임 판단 형상이 객체 트래킹 기법을 기반으로 추적될 수 있다(단계 S620).
움직임 판단 형상의 추적 기간 중 일정 타이밍에 주기적으로 이동 객체가 사람인지 여부에 대한 재판단이 수행될 수 있다(단계 S630).
트래킹되는 움직임 판단 형상 상에 위치한 이동 객체가 사람인지 여부에 대해서는 복수개의 서로 다른 판단 알고리즘을 기반으로 한 판단을 통해 적정값을 설정하여 이동 객체가 사람인지 여부에 대한 판단이 수행될 수 있다. 예를 들어, 하나의 판단 알고리즘은 민감한 휴먼 판단 알고리즘이고, 다른 판단 알고리즘은 둔감한 휴먼 판단 알고리즘일 수 있다. 이동 객체를 사람으로 판단하는데에 대한 민감도의 설정에 따라 서로 다른 판단 알고리즘을 기반으로 이동 객체가 사람인지 여부에 대한 판단이 수행될 수 있다. 객체에 대한 판단 민감도를 결정하기 위해서는 다양한 정보가 활용될 수 있는데 특히 객체의 에지 정보가 객체에 대한 판단 민감도를 결정하기 위한 하나의 요소로서 활용될 수 있다.
구체적으로 민감한 휴먼 판단 알고리즘이 사용될 경우, 사람인 이동 객체에 대해서도 사람이 아니라고 판단할 가능성이 존재하고, 둔감한 휴먼 판단 알고리즘은 사람이 아닌 이동 객체(예를 들어, 새, 나비)에 대해서 사람이라고 판단할 가능성이 존재한다.
따라서, 보행자 인식 능동 표시 장치가 설치된 환경을 고려하여 적정한 민감도값을 설정하여 사람이 사람으로서 판단될 수 있는 알고리즘이 설정될 수 있다.
사람으로 탐지된 이동 객체에 대해 추적 위치 좌표 값(또는 이동 객체 좌표값)이 결정되고, 이동 객체 좌표값을 기반으로 별도의 마스킹이 수행되어 객체에 대한 별도의 프로젝션이 수행될 수 있다(단계 S640).
본 발명의 실시예에 따르면, 전술한 바와 같이 프로젝션된 교통 표지인 횡단 보도가 관심 영역으로 설정되고, 2차원 평면으로 설정될 수 있고, 2차원 평면상의 2차원 좌표로서 횡단 보도 상의 각 영역이 지시될 수 있다. 횡단 보도 상을 건너는 객체의 위치 또한 2차원 평면 상의 하나의 객체 좌표값으로 설정될 수 있고, 객체 좌표값을 기반으로 이동 객체를 대상으로 한 제2 증강 현실 환경이 구현될 수 있다.
본 발명의 실시예에 따르면, 배경 이미지로 횡단 보도와 같은 교통 표지를 프로젝션하고, 배경 이미지로 횡단 보도와 같은 교통 표지를 프로젝션하고, 횡단보도를 건너는 이동 객체인 사람을 인식하여 횡단 보도를 건너는 사람에 대한 별도의 프로젝션이 수행될 수 있다. 이에 대해서는 구체적으로 후술한다.
도 7은 본 발명의 실시예에 따른 광 표지 모듈 기반의 교통 표지 방법을 나타낸 개념도이다.
도 7에서는 도로 환경 상에 광 표지 모듈을 추가적으로 설치하여 광 표지 모듈을 기반으로 발광되는 빛을 사용하여 교통 상황에 대한 정보를 제공하기 위한 방법이 개시된다.
도 7을 참조하면, 프로젝션과 함께 광 표지 모듈(700)이 도로 상에서 발광하여 교통 상황에 대한 정보가 전달될 수 있다. 광 표지 모듈(700)은 LED 기반으로 빛을 발광하는 모듈일 수 있다.
복수의 광 표지 모듈(700)은 프로젝션되는 횡단 보도의 세로선 부분에 위치할 수 있고, 복수의 광 표지 모듈(700)은 차량의 방향으로 빛을 발광하는 구조로 형성될 수 있다. 즉, 광 표지 모듈(700)은 차량의 운전자의 시야에 빛이 인식될 수 있는 각도로 구현될 수 있다. 광 표지 모듈(700)의 발광 각도는 설정에 따라 조정되도록 구현될 수도 있다.
예를 들어, 횡단 보도의 제1 세로선(710-1) 및 제2 세로선(710-2)에 평행하게 복수의 광 표지 모듈(700)이 설치될 수 있다. 또는 횡단 보도의 제1 세로선(710-1) 중 차량의 이동 방향 상 차량과 인접하여 접촉하는 부분(차량 인접 부분)으로서 차량에게 발광해야 할 부분(제1 하위 세로선(715)), 횡단 보도의 제2 세로선(710-2) 중 차량의 이동 방향상 차량과 인접하여 접촉하는 부분(차량 인접 부분)으로서 차량에게 발광해야 할 부분(제2 하위 세로선(725))에 광 표지 모듈이 위치하여 발광할 수 있다. 제1 세로선(710-1)에 위치한 광 표지 모듈은 제1 각도로 제1 세로선(710-1)에 인접한 차량 인접 부분에 위치한 차량으로 빛이 발광하도록 구현되고, 제2 세로선(710-2)에 위치한 광 표지 모듈은 제2 각도로 제2 세로선(710-2)에 인접한 차량 인접 부분에 위치한 차량으로 빛이 발광하도록 구현될 수 있다.
본 발명의 실시예에 따르면, 보행자의 위치를 판단하여 보행자의 위치에 대응되는 위치에 존재하는 광 표지 모듈(700)이 발광하는 방식으로 광 표지 모듈(700)이 동작할 수 있다. 전술한 바와 같이 보행자의 위치는 이동 객체 좌표값으로 표현될 수 있고, 이동 객체 좌표값에 대응되는 위치에 존재하는 광 표지 모듈(700)이 발광하는 방식으로 동작할 수 있다.
본 발명의 실시예에 따르면, 횡단 보도의 가로선의 방향이 x축, 횡단 보도의 세로선의 방향이 y축으로 표현되는 경우, 복수의 광 표지 모듈은 고정된 x 좌표에 대하여 변화하는 복수의 y 좌표에 해당하는 위치에 존재할 수 있다.
본 발명의 실시예에 따르면, 보행자의 이동 객체 좌표값의 y 좌표값(객체)를 기준으로 y 좌표값(객체)와 가장 가까운 y 좌표값(광표지 모듈)을 가지는 광표지 모듈이 발광할 수 있다. 또는 보행자의 이동 객체 좌표값의 y 좌표값(객체)를 기준으로 y 좌표값(객체)와 가장 가까운 y 좌표값(광표지 모듈) 및 y 좌표값(객체)와 가장 가까운 y 좌표값(광표지 모듈)에 인접한 y 좌표값(광표지 모듈)을 가지는 n개의 광표지 모듈(700)이 발광할 수도 있다.
광 표지 모듈(700)의 발광은 다양한 동작 모드를 기반으로 수행될 수 있다.
제1 동작 모드에서는 이동 객체가 횡단 보도를 지나가는 경우, 이동 객체의 y좌표값(객체)이 결정될 수 있고, 이동 객체의 y좌표값(객체)과 인접한 적어도 하나의 y 좌표값(광표지 모듈)을 가지는 횡단 보도의 제1 세로선(710-1) 및/또는 제2 세로선(710-2)에 위치한 광표지 모듈이 발광할 수 있다. 이때, 이동 객체의 y좌표값(객체)과 인접한 적어도 하나의 y 좌표값(광표지 모듈)은 이동 객체의 이동방향을 고려하여 이동 객체의 이동 방향에 대응되는 광 표지 모듈(700)이 상대적으로 많은 수로 켜지도록 구현될 수 도 있다.
제2 동작 모드에서는 이동 객체가 횡단 보도를 지나가는 경우, 객체의 y좌표값(객체)이 결정될 수 있되, 이동 객체의 y좌표값(객체)과 가장 가까운 y 좌표값(광표지 모듈)을 가지는 횡단 보도의 제1 세로선(710-1) 및 제2 세로선(710-2) 중 하나의 세로선에 위치한 광표지 모듈(700)이 발광할 수 있다. 예를 들어, 객체가 횡단 보도 상을 이동할 경우, 차량이 인접한 차량 인접 부분(750)에 해당하는 세로선에 위치한 광 표지 모듈(700)만이 발광될 수도 있다. 즉, 차량으로 빛을 발광하므로 차량에 인접한 세로선만이 발광되어 차량에게 객체가 지나감에 대한 표시를 전달할 수 있다.
또한 본 발명에서는 광 표지 모듈(700)은 교통 신호에 대한 부가적인 신호로서 활용될 수도 있다. 예를 들어, 횡단 보도를 건너갈 시간이 얼마 남지 않은 경우, 임계 시점에 모든 광 표지 모듈(700)이 발광되고, 임계 시점 이후 횡단 보도를 건널 수 없는 시점(붉은 신호등 표시)까지 광 표지 모듈(제1 지점)으로부터 광 표지 모듈(제2 지점)으로 광 표지 모듈(700)이 소등되는 방식으로 횡단 보도를 건너는 시간이 종료됨이 표시될 수 있다.
또는 본 발명의 실시예에 따르면, 예를 들어, 횡단 보도를 건너갈 시간이 얼마 남지 않은 경우, 임계 시점에 모든 광 표지 모듈(700)의 발광 각도가 횡단보도의 바깥쪽인 차량 인접 부분 방향이 아닌 횡단보도 안쪽의 이동 객체인 보행자를 바라보는 방향으로 변화될 수 있다. 이후 임계 시점 이후 횡단 보도를 건널 수 없는 시점(붉은 신호등 표시)까지 광 표지 모듈(제1 지점)으로부터 광 표지 모듈(제2 지점)으로 광 표지 모듈이 소등되는 방식으로 횡단 보도를 건너는 시간이 종료됨이 표시될 수 있다.
도 8은 본 발명의 실시예에 따른 프로젝션 방법을 나타낸 개념도이다.
도 8에서는 교통 표지에 대한 프로젝션을 통해 제1 증강 현실 환경을 생성하고, 이동 객체에 대한 프로젝션을 통해 제2 증강 현실 환경을 생성하기 위한 방법이 개시된다.
도 8을 참조하면, 도 5에서 전술한 바와 같이 배경 객체로서 교통 표지인 횡단 보도가 배경 영상으로서 제1 프로젝션될 수 있다.
프로젝터는 도 3 및 도 5에서 전술한 바와 같이 3D(dimension) 횡단 보도(815)를 도로 상에 프로젝션할 수 있다.
즉 프로젝터는 제1 프로젝션 영상(810)으로서 3D 횡단 보도(815)를 교통 표지로서 도로 상에 출력할 수 있다.
이후, 이동 객체가 횡단 보도 상을 건너가는 경우, 프로젝터는 제2 프로젝션 영상(820)으로서 객체 인식한 결과를 반영한 제2 프로젝션 영상(820)을 제1 프로젝션 영상(810)과 함께 출력할 수 있다.
제2 프로젝션 영상(820)은 보행자와 같은 이동 객체를 반영한 영상일 수 있다.
제2 프로젝션 영상(820)은 보행자가 횡단 보도 상을 이동시 보행자의 좌표를 인식하여 보행자의 주변에 객체 인지 표시(예를 들어, 원형의 빛 표지)(825)를 주고, 보행자의 머리에 해당하는 부분은 눈부심을 방지하기 위해 마스킹을 처리한 영상일 수 있다. 보행자의 주변에 객체 인지 표시(825)를 사용함으로써 운전자가 보행자의 위치를 보다 명확하게 인지할 수 있다.
전술한 바와 같이 횡단 보도는 2차원 평면으로 표현될 수 있고, 2차원 평면 상에서 이동하는 이동 객체의 위치는 2차원 좌표값으로 표현될 수 있다.
따라서, 보행자 인식 능동 표시 장치는 이동 객체의 위치를 판단하고 이동 객체의 위치에 맞는 객체 인지 표시(825)를 생성하고, 객체의 위치에 맞는 마스킹 처리를 함께 수행할 수 있다. 보행자 인식 능동 표시 장치는 객체의 이동을 판단하고 객체의 이동에 따라 객체 인지 표시(825)를 위한 새로운 제2 프로젝션 영상을 생성하여 출력할 수 있다.
도 9는 본 발명의 실시예에 따른 제2 프로젝션 영상 생성 방법을 나타낸 개념도이다.
도 9에서는 제2 프로젝션 영상을 생성하고 제2 프로젝션 영상을 출력하기 위한 방법이 개시된다.
도 9를 참조하면, 제2 프로젝션 영상을 생성하기 위해서는 객체의 위치에 대한 판단이 필요하고, 객체의 위치에 대한 판단을 기반으로 마스킹을 수행할 위치가 판단될 수 있다.
객체의 위치에 대해 실시간으로 판단을 수행하여 실시간으로 제2 프로젝션 영상이 생성될 수도 있으나, 객체의 위치를 판단하는 시간, 마스킹 영상을 생성하는 시간 등으로 인한 딜레이를 고려하여 객체의 위치를 주기적으로 판단하고, 주기적으로 판단된 객체의 위치를 고려한 객체의 이동을 예측하여 마스킹 영상인 제2 프로젝션 영상이 생성될 수 있다.
제1 마스킹 영상(객체 위치(실제값))(900), 제1 마스킹 영상(객체 위치(예측값))(910) 내지 제n 마스킹 영상(객체 위치(예측값))(920), 제2 마스킹 영상(객체 위치(실제값))(930)을 그룹핑하여 마스킹 영상이 생성될 수 있다.
제1 마스킹 영상(객체 위치(실제값))(900), 제2 마스킹 영상(객체 위치(실제값))(930), ??, 제n 마스킹 영상(객체 위치(실제값))(940)은 객체의 위치에 대한 실제값을 추출하여 생성한 마스킹 영상일 수 있다.
제n 마스킹 영상(객체 위치(실제값)) 내지 제n+1 마스킹 영상(객체 위치(실제값)) 사이에는 적어도 하나의 제1 마스킹 영상(객체 위치(예측값))(910) 내지 제n 마스킹 영상(객체 위치(예측값))(920)이 생성될 수 있다.
본 발명의 실시예에 따르면, 예측되는 마스킹 영상 이전에 위치한 적어도 하나의 이전 마스킹 영상(객체 위치(실제값)) 및/또는 적어도 하나의 이전 마스킹 영상(객체 위치(예측값))을 기반으로 타겟 마스킹 영상(객체 위치(예측값))이 예측될 수 있다.
구체적으로 횡단 보도를 바로 건너기 시작하는 시점에는 하나의 이전 마스킹 영상(객체 위치(실제값))(950)만이 존재할 수 있다. 하나의 이전 마스킹 영상(객체 위치(실제값))(950)이 존재하는 경우, 객체의 현재 위치를 고려하여 횡단보도 상에서의 객체의 이동 방향이 예측되고 현재 위치에서 이동 방향을 고려하여 타겟 마스킹 영상(객체 위치(예측값))(960)이 생성될 수 있다. 예를 들어, 횡단 보도에서의 현재 위치를 기반으로 이동 방향을 고려하여 객체의 이동 벡터를 결정하고, 타겟 마스킹 영상(객체 위치(예측값))(960)을 생성할 수 있다.
다음으로 횡단 보도를 건넌 이후에는 복수의 이전 마스킹 영상(객체 위치(실제값))(970, 980)이 존재할 수 있고, 가장 최근에 생성된 복수의 이전 마스킹 영상(객체 위치(실제값))(970, 98)을 기준으로 객체의 이동 벡터가 결정되고, 결정된 이동 벡터를 기준으로 타겟 마스킹 영상(객체 위치(예측값))(990)이 생성될 수 있다.
도 10은 본 발명의 실시예에 따른 제2 프로젝션 영상 생성 방법을 나타낸 개념도이다.
도 10에서는 복수의 이동 객체에 대한 그룹핑을 기반으로 제2 프로젝션 영상을 생성하기 위한 방법이 개시된다.
도 10을 참조하면, 복수의 이동 객체가 이동하는 경우, 개별 이동 객체에 대한 마스킹 영상이 생성되지 않고 복수의 이동 객체를 포함하는 이동 객체 그룹에 대한 마스킹 영상이 생성될 수 있다. 예를 들어, 복수의 객체(사람)가 무리지어 횡단보도를 건너는 경우, 개별 이동 객체가 아닌 복수의 이동 객체를 포함하는 무리 단위로 주변에 객체 인지 표시(예를 들어, 원형의 빛 표지)(1000)를 줄 수 있다.
이동 객체 그룹에 대한 마스킹 영상이 생성되기 위해서는 이동 객체의 그룹핑 여부가 판단될 수 있다. 이동 객체의 그룹핑 여부는 이동 객체로 인한 횡단보도 상의 혼잡도(1020)를 기반으로 결정된 객체 그룹핑 거리(1010)를 사용하여 결정될 수 있다. 이동 객체 간 거리가 객체 그룹핑 거리(1010) 이하인 경우, 객체 그룹핑 거리(1010) 이하에 위치한 이동 객체에 대한 그룹핑이 이루어질 수 있다.
우선적으로 디폴트 객체 그룹핑 거리가 설정되고, 횡단보도 내의 이동 객체 간 혼잡도(1020)에 따라 객체 그룹핑 거리(1030)가 변화되어 이동 객체 그룹(1040)이 생성될 수 있다.
횡단보도 상에서 이동 객체의 혼잡도가 임계 혼잡도 이하인 경우, 디폴트 객체 그룹핑 거리를 기반으로 이동 객체 간 그룹핑이 이루어질 수 있고, 그룹핑이 된 하나의 이동 객체 그룹(1040)에 대한 마스킹이 이루어져 제2 프로젝션 영상이 생성될 수 있다.
횡단보도 상에서 이동 객체의 혼잡도(1020)가 임계 혼잡도를 초과하는 경우, 이동 객체의 혼잡도(1020)를 고려하여 객체 그룹핑 거리(1030)를 조정한 값을 사용하여 이동 객체 간의 그룹핑이 이루어질 수 있다. 이동 객체의 혼잡도가 높아질수록 객체 그룹핑 거리(1030)가 길어져서 제2 프로젝션 영상 상에서 마스킹의 복잡도가 감소되고, 이동 객체의 혼잡으로 인한 예측의 불확실성으로 인한 마스킹 오류를 감소시킬 수 있다.
또한, 본 발명의 실시예에 따르면, 이동 객체 그룹에 대한 이동 벡터는 개별 이동 객체의 이동 방향을 고려하여 수행될 수 있다. 이동 객체 그룹(1040) 내의 이동 객체의 이동은 각각 개별적으로 판단될 수 있고, 제1 마스킹 영상(객체 위치(예측값)) 내지 제n 마스킹 영상(객체 위치(예측값))은 이동 객체 그룹(1040) 내의 이동 객체 각각의 이동 벡터를 고려하여 수행될 수 있다. 이러한 예측이 수행되는 경우, 마스킹 영상(객체 위치(실제값))에서의 이동 객체 그룹(1040)과 마스킹 영상(객체 위치(예측값))에서의 이동 객체 그룹(1040)이 서로 상이하게 변화될 수 있다.
또한, 본 발명의 실시예에 따르면, 이동 객체 그룹(1040)의 경우, 객체 인지 표시(1000)를 수행함에 있어서 객체 인지 표시(1000)의 너비를 하나의 이동 객체 그룹(1040)에 대한 객체 인지 표시(1000)와 다르게 설정할 수 있다. 예를 들어, 하나의 이동 객체일 경우의 객체 인지 표시(1000)의 너비와 대비하여 이동 객체 그룹(1040)에 대한 객체 인지 표시(1000)는 상대적으로 넓게 설정될 수 있고 마스킹 영역도 상대적으로 넓게 설정될 수 있다. 이동 객체 그룹(1040)에 대한 객체 인지 표지(1000)는 혼잡도(1020)에 따라서 혼잡도(1020)가 상대적으로 큰 경우일수록 객체 인지 표지(1000)의 영역이 상대적으로 좁게 형성되도록 할 수 있다. 혼잡도(1020)가 클수록 상대적으로 보다 정확하게 이동 객체 그룹(1040)에 대응되는 범위에 보다 가까워 지도록 객체 인지 표지(1000)의 영역이 설정될 수 있다.
도 11은 본 발명의 실시예에 따른 객체 인식에 따른 객체 인지 표지 생성 방법을 나타낸 개념도이다.
도 11에서는 객체가 도로 상으로 튀어 나오는 경우, 객체 인지 표지를 생성하기 위한 방법이 개시된다.
도 11을 참조하면, 주변에서 객체(1150)가 튀어나오는 경우, 영상 촬상부는 객체(1150)에 대한 촬상을 진행할 수 있고, 객체(1150)에 대한 촬상이 진행됨에 따라 객체(1150)의 움직임 중 특정 영역에서 발생되는 움직임에 대한 영상 분석이 수행될 수 있다.
예를 들어, 불법 주차 차량의 사이에서 발생되는 사고를 막기 위해 불법 주차 차량이 발생되는 경우, 불법 주차 차량을 기반으로 결정된 특정 영역이 객체 움직임 분석 영역으로서 설정될 수 있다.
객체 움직임 분석 영역 상에서 객체(1150)가 움직이는지 여부를 판단하고, 객체의 움직임이 관찰되는 경우, 객체 움직임 분석 영역 상에 객체의 존재함을 표시하기 위한 객체 인지 표지(1100)가 객체(1150) 및/또는 객체(1150)의 주변 영역에 생성될 수 있다.
객체 움직임 분석 영역은 복수의 하위 객체 움직임 분석 영역으로 나누어지고 복수의 하위 객체 움직임 분석 영역 상에서 객체(1150)가 움직이는 경우, 객체(1150)의 이동 방향을 고려하여 객체 인지 표지(1100)를 서로 다르게 출력할 수 있다.
복수의 하위 객체 움직임 분석 영역 중 특정 하위 객체 움직임 분석 영역 상에서 객체(1150)가 위치하고, 객체(1150)의 이동 방향이 도로를 향하는 방향이라고 가정할 경우, 인식된 객체(1150)와 인식된 불법 주차 차량을 고려하여 객체(1150)를 기준으로 한 특정 방향으로 객체 인지 표시(1100)를 발생시킴으로써 해당 장소를 주행하는 차량이 해당 위치에서 정지하거나, 해당 위치에서 속도를 감속할 수 있도록 할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
Claims (6)
- 보행자 인식 능동 표시 방법은,
보행자 인식 능동 표시 장치가 도로 표지를 생성하는 단계;
상기 보행자 인식 능동 표시 장치가 객체를 인식하는 단계; 및
상기 보행자 인식 능동 표시 장치가 상기 객체에 대한 객체 인지 표시를 생성하는 단계를 포함하고,
상기 도로 표지는 제1 프로젝션 영상을 기반으로 생성되고,
상기 객체 인지 표시는 제2 프로젝션 영상을 기반으로 생성되고,
상기 제2 프로젝션 영상 및 상기 제1 프로젝션 영상은 중첩되어 프로젝션되고,
상기 제2 프로젝션 영상은 상기 객체의 위치를 고려하여 생성된 마스킹 영상이고,
상기 제2 프로젝션 영상은 상기 객체가 복수인 경우, 복수의 객체에 대한 그룹핑을 기반으로 생성된 마스킹 영상인 것을 특징으로 하는 보행자 인식 능동 표시 방법. - 제1항에 있어서,
상기 제2 프로젝션 영상은 복수의 이전 마스킹 영상(객체 위치(실제값))을 통해 결정된 객체의 이동 벡터를 기반으로 생성된 타겟 마스킹 영상(객체 위치(예측값))이고,
상기 제2 프로젝션 영상은 상기 복수의 객체에 대한 그룹핑을 기반으로 생성시 객체 그룹핑 거리를 기반으로 생성되고,
상기 객체 그룹핑 거리는 이동 객체로 인한 횡단보도 상의 혼잡도를 기반으로 결정되는 것을 특징으로 하는 방법. - 제1항에 있어서,
상기 보행자 인식 능동 표시 장치는 제1 지지대 및 제2 지지대를 기반으로 연결된 브릿지 상에서 도로 환경을 고려한 프로젝션 최적화 위치에 설치되고,
상기 보행자 인식 능동 표시 장치는 객체 인식부 및 객체 학습부로부터 인식된 객체 인식 및 객체 학습 결과를 수신하여 상기 제1 프로젝션 영상 및 제2 프로젝션 영상을 생성하는 것을 특징으로 하는 방법. - 보행자 인식 능동 표시 장치는,
영상 정보를 생성하는 영상 촬상부; 및
상기 영상 정보를 기반으로 도로 표지를 생성하고, 객체를 인식하고, 상기 객체에 대한 객체 인지 표시를 생성하도록 구현되는 프로세서를 포함하고,
상기 도로 표지는 제1 프로젝션 영상을 기반으로 생성되고,
상기 객체 인지 표시는 제2 프로젝션 영상을 기반으로 생성되고,
상기 제2 프로젝션 영상 및 상기 제1 프로젝션 영상은 중첩되어 프로젝션되고,
상기 제2 프로젝션 영상은 상기 객체의 위치를 고려하여 생성된 마스킹 영상이고,
상기 제2 프로젝션 영상은 상기 객체가 복수인 경우, 복수의 객체에 대한 그룹핑을 기반으로 생성된 마스킹 영상인 것을 특징으로 하는 보행자 인식 능동 표시 장치. - 제4항에 있어서,
상기 제2 프로젝션 영상은 복수의 이전 마스킹 영상(객체 위치(실제값))을 통해 결정된 객체의 이동 벡터를 기반으로 생성된 타겟 마스킹 영상(객체 위치(예측값))이고,
상기 제2 프로젝션 영상은 상기 복수의 객체에 대한 그룹핑을 기반으로 생성시 객체 그룹핑 거리를 기반으로 생성되고,
상기 객체 그룹핑 거리는 이동 객체로 인한 횡단보도 상의 혼잡도를 기반으로 결정되는 것을 특징으로 하는 보행자 인식 능동 표시 장치. - 제4항에 있어서,
상기 보행자 인식 능동 표시 장치는 제1 지지대 및 제2 지지대를 기반으로 연결된 브릿지 상에서 도로 환경을 고려한 프로젝션 최적화 위치에 설치되고,
상기 보행자 인식 능동 표시 장치는 객체 인식부 및 객체 학습부로부터 인식된 객체 인식 및 객체 학습 결과를 수신하여 상기 제1 프로젝션 영상 및 제2 프로젝션 영상을 생성하는 것을 특징으로 하는 보행자 인식 능동 표시 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190116889 | 2019-09-23 | ||
KR1020190116889 | 2019-09-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210035020A KR20210035020A (ko) | 2021-03-31 |
KR102260004B1 true KR102260004B1 (ko) | 2021-06-03 |
Family
ID=75237862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190164886A KR102260004B1 (ko) | 2019-09-23 | 2019-12-11 | 보행자 인식 능동 표시 방법 및 이러한 방법을 수행하는 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102260004B1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116844359B (zh) * | 2023-06-27 | 2024-03-19 | 宁波四维尔工业有限责任公司 | 一种路标投影方法、系统、存储介质及智能终端 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017532644A (ja) * | 2014-10-06 | 2017-11-02 | トヨタ自動車株式会社 | 路上物体をヘッドアップディスプレイ上で強調する安全システム |
-
2019
- 2019-12-11 KR KR1020190164886A patent/KR102260004B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017532644A (ja) * | 2014-10-06 | 2017-11-02 | トヨタ自動車株式会社 | 路上物体をヘッドアップディスプレイ上で強調する安全システム |
Also Published As
Publication number | Publication date |
---|---|
KR20210035020A (ko) | 2021-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111024040B (zh) | 距离估计方法和设备 | |
US11486727B2 (en) | Map generation device, map generation method, and map generation computer program | |
US10437252B1 (en) | High-precision multi-layer visual and semantic map for autonomous driving | |
US10366508B1 (en) | Visual-inertial positional awareness for autonomous and non-autonomous device | |
US10794710B1 (en) | High-precision multi-layer visual and semantic map by autonomous units | |
US11487988B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
US11455565B2 (en) | Augmenting real sensor recordings with simulated sensor data | |
JP6648411B2 (ja) | 処理装置、処理システム、処理プログラム及び処理方法 | |
KR102628012B1 (ko) | 캘리브레이션 방법 및 장치 | |
US20200082182A1 (en) | Training data generating method for image processing, image processing method, and devices thereof | |
CN111695483A (zh) | 一种车辆违章检测方法、装置、设备及计算机存储介质 | |
CN106663193A (zh) | 用于路缘检测和行人危险评估的系统和方法 | |
JP5804180B2 (ja) | 立体物検出装置 | |
JP5874831B2 (ja) | 立体物検出装置 | |
US20210156704A1 (en) | Updating map data | |
US11961304B2 (en) | Systems and methods for deriving an agent trajectory based on multiple image sources | |
US11971536B2 (en) | Dynamic matrix filter for vehicle image sensor | |
US20220120910A1 (en) | Information processing system, sensor system, information processing method, and non-transitory computer readable storage medium | |
WO2019198076A1 (en) | Real-time raw data- and sensor fusion | |
US11961241B2 (en) | Systems and methods for deriving an agent trajectory based on tracking points within images | |
US20230132646A1 (en) | Artificial intelligence and computer vision powered driving-performance assessment | |
CN111105695A (zh) | 地图制作方法、装置、电子设备及计算机可读存储介质 | |
JP2004265432A (ja) | 走行環境認識装置 | |
JP2020046882A (ja) | 情報処理装置、車両制御装置および移動体制御方法 | |
KR102316818B1 (ko) | 도로 네트워크를 갱신하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |