KR102612438B1 - 교통 객체 위치 추정 장치 및 방법 - Google Patents

교통 객체 위치 추정 장치 및 방법 Download PDF

Info

Publication number
KR102612438B1
KR102612438B1 KR1020200095542A KR20200095542A KR102612438B1 KR 102612438 B1 KR102612438 B1 KR 102612438B1 KR 1020200095542 A KR1020200095542 A KR 1020200095542A KR 20200095542 A KR20200095542 A KR 20200095542A KR 102612438 B1 KR102612438 B1 KR 102612438B1
Authority
KR
South Korea
Prior art keywords
information
traffic
traffic object
pedestrian
unit
Prior art date
Application number
KR1020200095542A
Other languages
English (en)
Other versions
KR20220015253A (ko
Inventor
백장운
이준구
임길택
최윤원
한병길
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020200095542A priority Critical patent/KR102612438B1/ko
Publication of KR20220015253A publication Critical patent/KR20220015253A/ko
Application granted granted Critical
Publication of KR102612438B1 publication Critical patent/KR102612438B1/ko

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 교통 객체 위치 추정 장치에 관한 것이다.
본 발명은 임의의 영상을 촬영하는 이미지 센싱부; 상기 이미지 센싱부를 통해 촬영된 영상에서 교통 객체를 인식하는 객체 인식부; 상기 인식된 교통 객체의 좌표 정보를 추정하는 위치 추정부 및 상기 추정된 교통 객체의 좌표 정보를 제공하는 통신부를 포함한다.

Description

교통 객체 위치 추정 장치 및 방법{Traffic object location estimation device and method}
본 발명은 교통 객체 위치 추정 장치 및 방법에 관한 것으로, 더욱 상세하게는 도로 인프라에 설치된 카메라 영상을 이용하여 교차로 및 횡단보도의 보행자의 위치를 추정하고, 추정된 보행자의 위치정보를 제공하는 교통 객체 위치 추정 장치 및 방법에 관한 것이다.
자율주행차의 보급이 본격화되면 일반 자동차와 자율주행차가 동시에 운행될 것이고 자율협력주행이 중요한 기술이 될 전망이다.
자율주행차는 차에 장착한 여러 센서(레이다, 라이다, 카메라, 초음파 등)를 이용하여 객체(보행자, 자동차, 장애물, 도로 등)를 인지하여 주행한다. 하지만, 자율주행차가 장착한 센서로 자율주행에 필요한 모든 객체를 인지할 수 없다.
특히, 빌딩이나 펜스가 있고 사람이 많이 모이는 교차로의 경우 보행자 검지가 어렵고 갑작스러운 보행자 출현이 잦아 자율주행차가 대응하기 어려운 문제점이 있다.
본 발명은 종래 문제점을 해결하기 위한 것으로, 도로 인프라에 설치된 카메라를 활용하여 자율차의 센싱 범위에 있거나 사각지역에 있는 보행자를 검출하고 위치를 추정하여 보행자의 GPS 정보를 제공하는 교통 객체 위치 추정 장치 및 방법을 제공하고자 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 교통 객체 위치 추정 장치 및 방법은 촬영된 영상으로부터 교통 객체를 인식하고, 카메라의 위치 정보를 이용하여 교통 객체의 좌표 정보를 산출하고, 상기 추정된 교통 객체의 좌표 정보를 전달하는 영상 촬영기; 및 상기 카메라를 통해 산출된 교통 객체의 좌표 정보를 자율주행차에 제공하는 통신부를 포함한다.
상기 영상 촬영기는, 임의의 영상을 촬영하는 이미지 센싱부; 상기 이미지 센싱부를 통해 전달된 영상에서 교통 객체를 인식하는 객체 인식부; 및 상기 인식된 교통 객체의 위치를 추정하는 위치 추정부를 포함한다.
그리고, 본 발명은 교통 객체 검출리스트를 저장 관리하는 데이터 저장부를 더 포함할 수 있다.
상기 통신부는, RSU(Road Side Unit) 및 관제센터서버와 통신을 수행할 수 있다.
상기 객체 인식부는, 영상 이미지의 리사이징 및 노이즈 제거와 같은 전처리 과정을 수행할 수 있다.
상기 객체 인식부는, Faster RCNN, YOLO, SSD의 심층신경망 객체 검출 알고리즘 중 하나를 이용하는 것이 바람직하다.
상기 객체 인식부는, SVM, Decision Tree, Random Forest 머신러닝 기법 중 하나의 기법을 이용할 수 있다.
상기 객체 인식부는, MobileNetV1, MobileNetV2, PeleeNet, Tiny-yolov2, Tiny-yolov3의 심층신경망 경량네트워크 중 하나이다.
상기 위치 추정부는, 상기 인식된 보행자의 위치정보(보행자 위치, 이동방향, 이동속도)를 추적하고, 보행자 별로(보행자 ID 부여) 위치 정보를 추출한다.
상기 위치 추정부는, GPS 좌표 정보가 포함된 카메라의 위치정보, 수직각도 및 수평각도를 포함하는 카메라의 설치정보, 카메라의 초점, 화각 및 화소 정보가 포함된 카메라의 사용정보를 이용하여 카메라에 상대적인 교통 객체의 좌표를 추정할 수 있다.
또한 본 발명은 보행자의 이동방향과 속도를 추출하여 보행자 추적하는 보행자 추적부를 더 포함하고, 상기 보행자 추적부는 KCF(kernelized colleration filter) 추적기, IOU(intersection of union) 추적기 중 하나이다.
상기 보행자 추적부는, 칼만필터를 결합하여 보행자를 추적할 수 있다.
본 발명의 일 실시예에 따르면, 교차로 CCTV 카메라에서 보행자를 검출하고 위치정보를 추정하여 보행자의 위치, 이동방향, 속도 정보를 자율주행자동차에 전송함으로써 사각지역의 보행자의 위치를 사전에 파악하고 대응할 수 있는 효과가 있다.
또한, 본 발명은 자율주행자동차 뿐만 아니라 V2X 통신 장치(OBU)를 장착한 차량의 운전자에 보행자 위치 정보를 전송하여 충돌 위험에 대비할 수 있게 해주는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 교통 객체 위치 추정 장치 및 방법을 설명하기 위한 기능블록도.
도 2는 본 발명의 일 실시예에 따른 교통 객체 위치 추정 장치 및 방법을 설명하기 위한 참고도.
도 3은 본 발명의 일 실시예에 채용된 역학 모션 센싱유닛을 설명하기 위한 기능블록도.
도 4는 본 발명의 일 실시예에 채용된 탑승자 센싱유닛을 설명하기 위한 기능블록도.
도 5는 본 발명의 일 실시예에 채용된 조작 검출부를 설명하기 위한 기능블록도.
도 6은 본 발명의 일 실시예에 따른 교통 객체 위치 추정 장치 및 방법을 설명하기 위한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
도 1은 본 발명의 일 실시예에 따른 교통 객체 위치 추정 장치를 설명하기 위한 기능블록도이다.
이미지 센싱부(110)는 임의의 영상을 촬영한다. 본 발명의 일 실시예에서는 CCTV(closed circuit television)가 이용될 수 있다.
객체 인식부(120)는 이미지 센싱부(110)를 통해 촬영된 영상에서 교통 객체(차량 및 보행자)를 인식한다. 여기서, 상기 객체 인식부(120)는, 영상 이미지의 리사이징 및 노이즈 제거와 같은 전처리 과정을 수행할 수 있다.
그리고, 객체 인식부(120)는, Faster RCNN, YOLO, SSD의 심층신경망 객체 검출 알고리즘 중 하나를 이용할 수 있다.
이러한 본 발명의 일 실시예에 따르면, 심층신경망 객체 검출 알고리즘을 이용하는 경우, 엣지 컴퓨팅 HW기술과 심층신경망 경량/고속화 알고리즘 기술로 정확도가 매우 높고 다양한 객체를 검출할 수 있는 효과가 있다.
또한 객체 인식부(120)는, SVM, Decision Tree, Random Forest 머신러닝 기법 중 하나의 기법을 이용할 수 있다.
그리고, 객체 인식부(120)는, MobileNetV1, MobileNetV2, PeleeNet, Tiny-yolov2, Tiny-yolov3의 심층신경망 경량네트워크 중 하나의 기법을 이용할 수 있다.
위치 추정부(130)는 상기 인식된 교통 객체의 위치를 추정한다. 상기 위치 추정부(130)는 이미지 센싱부의 높이 정보 및 GPS 좌표 정보와 상기 인식된 교통 객체의 정보를 이용하여 교통 객체의 좌표 정보를 추정하는 것이 바람직하다.
한편, 위치 추정부(130)는, 상기 인식된 보행자의 위치정보(보행자 위치, 이동방향, 이동속도)를 추적하고, 보행자 별로(보행자 ID 부여) 위치 정보를 추출하는 것이 바람직하다.
위치 추정부(130)는 GPS 좌표 정보가 포함된 카메라의 위치정보, 수직각도 및 수평각도를 포함하는 카메라의 설치정보, 카메라의 초점, 화각 및 화소 정보가 포함된 카메라의 사용정보를 이용하여 카메라에 상대적인 교통 객체의 좌표를 추정할 수 있다.
그리고 데이터 저장부(140)는 교통 객체 검출리스트를 저장 관리할 수 있다. 즉, 데이터 저장부는, 기 설정된 기간동안 교통 객체의 인식 정보를 산출하여 해당 지역(횡단보도 또는 사거리)에서의 교통 객체의 예상 정보를 제공해줄 수도 있다. 또한, 횡단보도의 경우, 신호등 정보와 시간 정보를 이용하여 객체의 이동 성향이 포함된 정보를 저장하고 관리할 수 있다.
일 예로, 도 3에 도시된 바와 같이, 카메라 설치 위치를 원점(0,0,0)으로 설정하고 카메라의 수직각도(θ), 수평각도(φ)알고 있으므로 카메라와 객체와의 직선거리(r)만 찾으면 카메라에 상대적인 교통 객체의 좌표(x, y, z)를 알 수 있다.
[수학식 1]
x = rsinθconφ, y = rsinθsinφ, z = rcosθ
여기서, r은 카메라와 교통 객체와의 직선거리이고, P는 카메라의 높이와 좌표 정보이다. 한편, 직선거리(r)은 삼각비율 공식과 핀홀 카메라 방정식을 이용하여 쉽게 구할 수 있다.
그리고, 도 4에 도시된 바와 같이, 촬영 지면에서 교통 객체와의 거리(d)를 [수학식 2]를 참조하여 산출할 수 있다.
[수학식 2]
여기서, d는 촬영 지면에서 교통 객체와의 거리이고, h는 카메라의 높이이며, α는 카메라의 높이 값에서 교통 객체의 중심점간의 거리이다.
한편, 객체의 GPS 좌표값은 카메라의 GPS 좌표 값을 이용하여 산출할 수 있다. 만약, 카메라의 GPS 좌표 값이 (xc, yc, zc) 이고, 교통 객체인 보행자가 서 있는 바닥면의 좌표가 (xp, yp, zp)이면, [수학식 3]과 같이, 보행자의 GPS 좌표를 산출할 수 있다.
[수학식 3]
xp = xc +dconφ
yp = yc + dsinφ
zp = zc - h = 0
이후, 보행자 추적부(150)는 보행자의 이동방향과 속도를 추출하여 보행자 추적할 수 있다. 여기서 상기 보행자 추적부(150)는 KCF(kernelized colleration filter) 추적기, IOU(intersection of union) 추적기 중 하나이다.
이러한 상기 보행자 추적부(150)는 칼만필터를 결합하여 보행자를 추적할 수 있다.
즉, 보행자 추적부(150)는 도 5에 도시된 바와 같이, 이전 프레임의 보행자 위치가 Pt-1(xt-1, yt-1, 0)이고, 현재 보행자 위치가 Pt(xt, yt, 0)이면, 벡터의 변위 값을 사용하여 이동 방향과 속도를 구할 수 있다.
[수학식 4]
Ax = (xt - xt-1), Ay = (yt - yt-1)이고,
이동방향 θ = tan-1(Ay/Ax)
이동거리 =
이동속도 = * FPS
여기서, FPS는 카메라의 초당 이미지 캡쳐 수를 의미한다.
통신부(140)는 카메라를 통해 산출된 보행자의 위치 정보를 자율주행차에 제공한다. 여기서, 통신부(140)는 RSU 및 관제센터서버와 통신을 수행한다.
본 발명의 일 실시예에 따르면, 교차로 CCTV 카메라에서 보행자를 검출하고 위치정보를 추정하여 보행자의 위치, 이동방향, 속도 정보를 자율주행자동차에 전송함으로써 사각지역의 보행자의 위치를 사전에 파악하고 대응할 수 있는 효과가 있다.
또한, 본 발명은 자율주행자동차 뿐만 아니라 V2X 통신 장치(OBU)를 장착한 차량의 운전자에 보행자 위치 정보를 전송하여 충돌 위험에 대비할 수 있게 해주는 효과가 있다.
이하, 하기에서는 본 발명의 일 실시예에 따른 교통 객체 위치 추정 방법에 대하여 도 6을 참조하여 설명하기로 한다.
기설정된 높이에 설치된 카메라를 통해 임의의 지역(교차로 또는 횡단보도)을 촬영하여 영상 정보를 획득한다(S110).
상기 촬영된 영상에서 교통 객체인 보행자를 인식한다(S120). 본 실시예에서는 Faster RCNN, YOLO, SSD의 심층신경망 객체 검출 알고리즘 중 하나를 이용하여 교통 객체를 인식하거나, SVM, Decision Tree, Random Forest 머신러닝 기법 중 하나의 기법을 이용하여 교통 객체를 인식하거나, MobileNetV1, MobileNetV2, PeleeNet, Tiny-yolov2, Tiny-yolov3의 심층신경망 경량네트워크 중 하나의 기법을 이용하여 교통 객체를 인식할 수 있다. 여기서 교통 객체는 보행자인 것이 바람직하나 자전거, 전동 퀵보드 및 오토바이 등도 교통 객체로 인식할 수 있다.
상기 카메라의 높이 정보와 상기 카메라의 GPS 좌표 정보를 이용하여 상기 인식된 교통 객체의 좌표정보를 추정한다(S130). 일 예로, 도 3에 도시된 바와 같이, 카메라 설치 위치를 원점(0,0,0)으로 설정하고 카메라의 수직각도(θ), 수평각도(φ)를 알고 있으므로, 카메라와 객체와의 직선거리(r)만 찾으면 카메라에 상대적인 교통 객체의 좌표(x, y, z)를 알 수 있다.
그리고, 도 4에 도시된 바와 같이, 촬영 지면에서 교통 객체와의 거리(d)를 [수학식 2]를 참조하여 산출할 수 있다.
한편, 객체의 GPS 좌표값은 카메라의 GPS 좌표 값을 이용하여 산출할 수 있다. 만약, 카메라의 GPS 좌표 값이 (xc, yc, zc) 이고, 교통 객체인 보행자가 서 있는 바닥면의 좌표가 (xp, yp, zp)이면, [수학식 3]과 같이, 보행자의 GPS 좌표를 산출할 수 있다.
이후, 상기 추정된 교통 객체의 이동을 추적한다(S140). 여기서 교통 객체의 이동을 추적하는 단계는 KCF(kernelized colleration filter) 추적기, IOU(intersection of union) 추적기 중 하나가 이용될 수 있으며, 칼만필터를 결합하여 보행자를 추적할 수도 있다.
본 발명의 일 실시예에 따르면, 교차로 CCTV 카메라에서 보행자를 검출하고 위치정보를 추정하여 보행자의 위치, 이동방향, 속도 정보를 자율주행자동차에 전송함으로써 사각지역의 보행자의 위치를 사전에 파악하고 대응할 수 있는 효과가 있다.
또한, 본 발명은 자율주행자동차 뿐만 아니라 V2X 통신 장치(OBU)를 장착한 차량의 운전자에 보행자 위치 정보를 전송하여 충돌 위험에 대비할 수 있게 해주는 효과가 있다.
한편, 도 1을 참조하면 본 발명의 일 실시예에서 통신부(140)는 V2X 통신 장치간 데이터를 송수신한다. 이와 같은 통신부(140)은 무선 통신 모듈을 모두 포함할 수 있다. 무선 통신 모듈은 5G 이동통신 네트워크, WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다.
메모리에는 보행자를 인식하기 위한 프로그램과 보행자의 이동을 검출하기 위한 프로그램이 저장되며, 프로세서는 메모리에 저장된 프로그램을 실행시킨다.
이때, 메모리는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다.
예를 들어, 메모리는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.
참고로, 본 발명의 실시예에 따른 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터를 이용하거나 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터를 이용하거나 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이 때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니되며 이하의 특허청구범위의 기재에 의하여 정해져야 할 것이다.

Claims (10)

  1. 임의의 영상을 촬영하는 이미지 센싱부;
    상기 이미지 센싱부를 통해 촬영된 영상에서 교통 객체를 인식하는 객체 인식부;
    상기 인식된 교통 객체의 좌표 정보를 추정하는 위치 추정부 및
    상기 추정된 교통 객체의 좌표 정보를 제공하는 통신부를 포함하되,
    상기 위치 추정부는,
    상기 이미지 센싱부의 높이 정보 및 GPS 좌표 정보와 상기 인식된 교통 객체의 정보를 이용하여 교통 객체의 좌표 정보를 추정하고,
    인식된 보행자의 위치정보(보행자 위치, 이동방향, 이동속도)를 추적하고, 보행자 별로(보행자 ID 부여) 위치 정보를 추출하며,
    교통 객체 검출리스트와 기 설정된 기간동안 교통 객체의 인식 정보를 산출하여 해당 지역에서의 교통 객체의 예상 정보를 저장 관리하는 데이터 저장부를 포함하는
    교통 객체 위치 추정 장치.
  2. 삭제
  3. 삭제
  4. 제 1항에 있어서,
    상기 통신부는, RSU(Road Side Unit) 및 관제센터서버와 통신을 수행하는 것인 교통 객체 위치 추정 장치.
  5. 제 1항에 있어서,
    상기 객체 인식부는,
    영상 이미지의 리사이징 및 노이즈 제거하는 전처리 과정을 수행하는 것인 교통 객체 위치 추정 장치.
  6. 제 1항에 있어서,
    상기 객체 인식부는,
    Faster RCNN, YOLO, SSD의 심층신경망 객체 검출 알고리즘 중 하나를 이용하는 것인 교통 객체 위치 추정 장치.
  7. 제 1항에 있어서,
    상기 객체 인식부는,
    SVM, Decision Tree, Random Forest 머신러닝 기법 중 하나의 기법을 이용하는 것인 교통 객체 위치 추정 장치.
  8. 제 1항에 있어서,
    상기 객체 인식부는,
    MobileNetV1, MobileNetV2, PeleeNet, Tiny-yolov2, Tiny-yolov3의 심층신경망 경량네트워크 중 하나인 교통 객체 위치 추정 장치.
  9. 삭제
  10. 기설정된 높이에 설치된 카메라를 통해 임의의 지역을 촬영하여 영상 정보를 획득하는 단계;
    상기 촬영된 영상에서 교통 객체인 보행자를 인식하는 단계;
    상기 카메라의 높이 정보와 상기 카메라의 GPS 좌표 정보를 이용하여 상기 인식된 교통 객체의 좌표정보를 추정하는 단계; 및
    상기 추정된 교통 객체의 이동을 추적하는 단계를 포함하되,
    상기 인식된 교통 객체의 좌표정보를 추정하는 단계는,
    상기 카메라의 높이 정보 및 GPS 좌표 정보와 상기 인식된 교통 객체의 정보를 이용하여 교통 객체의 좌표 정보를 추정하고,
    인식된 보행자의 위치정보(보행자 위치, 이동방향, 이동속도)를 추적하고, 보행자 별로(보행자 ID 부여) 위치 정보를 추출하며,
    교통 객체 검출리스트와 기 설정된 기간동안 교통 객체의 인식 정보를 산출하여 해당 지역에서의 교통 객체의 예상 정보를 저장 관리하는 저장 관리하는 단계를 포함하는
    교통 객체 위치 추정 방법.
KR1020200095542A 2020-07-30 2020-07-30 교통 객체 위치 추정 장치 및 방법 KR102612438B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200095542A KR102612438B1 (ko) 2020-07-30 2020-07-30 교통 객체 위치 추정 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200095542A KR102612438B1 (ko) 2020-07-30 2020-07-30 교통 객체 위치 추정 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20220015253A KR20220015253A (ko) 2022-02-08
KR102612438B1 true KR102612438B1 (ko) 2023-12-12

Family

ID=80251755

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200095542A KR102612438B1 (ko) 2020-07-30 2020-07-30 교통 객체 위치 추정 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102612438B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195698A (ja) * 2000-01-07 2001-07-19 Nissan Motor Co Ltd 歩行者検知装置
JP2002140790A (ja) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit 横断歩行者検出方法
JP2003109169A (ja) * 2001-09-26 2003-04-11 Mitsubishi Heavy Ind Ltd 道路情報提供システム
KR101935399B1 (ko) * 2018-07-11 2019-01-16 주식회사 두원전자통신 심층 신경망 알고리즘 기반 광역 다중 객체 감시 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195698A (ja) * 2000-01-07 2001-07-19 Nissan Motor Co Ltd 歩行者検知装置
JP2002140790A (ja) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit 横断歩行者検出方法
JP2003109169A (ja) * 2001-09-26 2003-04-11 Mitsubishi Heavy Ind Ltd 道路情報提供システム
KR101935399B1 (ko) * 2018-07-11 2019-01-16 주식회사 두원전자통신 심층 신경망 알고리즘 기반 광역 다중 객체 감시 시스템

Also Published As

Publication number Publication date
KR20220015253A (ko) 2022-02-08

Similar Documents

Publication Publication Date Title
US10970859B2 (en) Monitoring method and device for mobile target, monitoring system and mobile robot
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
Gavrila Sensor-based pedestrian protection
Pfeiffer et al. Efficient representation of traffic scenes by means of dynamic stixels
Keller et al. The benefits of dense stereo for pedestrian detection
Wijesoma et al. Road-boundary detection and tracking using ladar sensing
US7103213B2 (en) Method and apparatus for classifying an object
Eum et al. Enhancing light blob detection for intelligent headlight control using lane detection
Guo et al. Robust road detection and tracking in challenging scenarios based on Markov random fields with unsupervised learning
Reisman et al. Crowd detection in video sequences
KR101891460B1 (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
Gavrila et al. Real time vision for intelligent vehicles
US20150363940A1 (en) Robust Anytime Tracking Combining 3D Shape, Color, and Motion with Annealed Dynamic Histograms
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
Liu et al. A novel distance estimation method leading a forward collision avoidance assist system for vehicles on highways
Lefebvre et al. Vehicle detection and tracking using mean shift segmentation on semi-dense disparity maps
Dornaika et al. A new framework for stereo sensor pose through road segmentation and registration
WO2019065970A1 (ja) 車両用外界認識装置
Taubel et al. An experimental study of a lane departure warning system based on the optical flow and Hough transform methods
Bajracharya et al. Results from a real-time stereo-based pedestrian detection system on a moving vehicle
Mosberger et al. An inexpensive monocular vision system for tracking humans in industrial environments
Ma et al. A real time object detection approach applied to reliable pedestrian detection
KR102612438B1 (ko) 교통 객체 위치 추정 장치 및 방법
KR20170138842A (ko) 템플릿 매칭 기반의 차량 추적 시스템 및 방법
KR101340014B1 (ko) 위치 정보 제공 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant