KR101833298B1 - 전자 기기 및 그 제어방법 - Google Patents

전자 기기 및 그 제어방법 Download PDF

Info

Publication number
KR101833298B1
KR101833298B1 KR1020170017499A KR20170017499A KR101833298B1 KR 101833298 B1 KR101833298 B1 KR 101833298B1 KR 1020170017499 A KR1020170017499 A KR 1020170017499A KR 20170017499 A KR20170017499 A KR 20170017499A KR 101833298 B1 KR101833298 B1 KR 101833298B1
Authority
KR
South Korea
Prior art keywords
vehicle
extracted
image
current position
type
Prior art date
Application number
KR1020170017499A
Other languages
English (en)
Other versions
KR20170017987A (ko
Inventor
우승완
이해일
조창빈
김진영
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020170017499A priority Critical patent/KR101833298B1/ko
Publication of KR20170017987A publication Critical patent/KR20170017987A/ko
Application granted granted Critical
Publication of KR101833298B1 publication Critical patent/KR101833298B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D41/00Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D9/00Recording measured values
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

전자 기기 및 그 제어방법 이 개시된다. 본 발명의 전자 기기 및 그 제어방법은, 영상을 촬영하는 카메라; 맵정보가 저장된 저장부; 차량의 현재 위치를 획득하는 위치 데이터 모듈; 및 상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고, 상기 맵정보 및 상기 현재 위치에 따른 우선순위를 토대로 상기 추출한 적어도 하나의 오브젝트 관련정보를 출력하는 제어부를 포함하는 것을 특징으로 한다. 본 발명에 의하면, 맵정보 및 차량의 현재 위치 중 적어도 하나에 따른 우선순위에 따라 촬영한 영상에 포함된 오브젝트 관련정보를 출력하므로, 차량의 현재 위치에 최적화된 교통사고 예방정보를 제공할 수 있다.

Description

전자 기기 및 그 제어방법{Electronic device and control method thereof}
본 발명은 전자 기기 및 그 제어방법 에 관한 것으로서, 보다 구체적으로는 맵정보 및 차량의 현재 위치 중 적어도 하나에 따른 우선순위에 따라 촬영한 영상에 포함된 오브젝트 관련정보를 출력하므로, 차량의 현재 위치에 최적화된 교통사고 예방정보를 제공할 수 있는 전자 기기 및 그 제어방법에 관한 것이다.
인터넷 망이 개방되고 위치정보와 관련된 법률이 정비됨에 따라, 위치 기반 서비스(Location Based Service; LBS) 관련 산업이 활성화되고 있다. 위치 기반 서비스의 한 분야로서, 디바이스가 장착된 차량 등의 현재위치를 측위하거나 목적지까지의 이동 경로를 안내해주는 차량용 내비게이션 관련산업 또한 급격히 활성화되고 있는 상황이다.
한편, 차량의 정차 또는 운행 중 발생한 사고의 책임소재에 따른 과실비율을 판단하기 위하여 객관적인 자료가 필요한 경우가 증가하고 있다. 이에 따라, 객관적인 자료를 제공할 수 있는 차량용 블랙박스가 사용되고 있다. 그런데 종래의 차량용 블랙박스는, 차량의 상태에 대한 단순하고 평명적인 정보만을 제공할 수 있을 뿐이어서, 사용자의 요구에 효과적으로 부응하지 못하고 있는 실정이다.
본 발명은 맵정보 및 차량의 현재 위치 중 적어도 하나에 따른 우선순위에 따라 촬영한 영상에 포함된 오브젝트 관련정보를 출력하므로, 차량의 현재 위치에 최적화된 교통사고 예방정보를 제공하는 전자 기기 및 그 제어방법에 관한 것이다.
상기한 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자기기는, 영상을 촬영하는 카메라; 맵 정보가 저장된 저장부; 차량의 현재 위치를 획득하는 위치 데이터 모듈; 및 상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고, 상기 맵 정보 및 상기 현재 위치에 따른 우선순위를 토대로, 상기 추출한 적어도 하나의 오브젝트 관련정보를 출력하는 제어부를 포함할 수 있다.
상기 영상은, 야간 영상을 포함할 수 있다.
상기 우선순위는, 상기 추출한 오브젝트의 위치 및 이동방향에 대한 감지 빈도(頻度)에 비례할 수 있다.
상기 맵정보는, 상기 차량의 현재 위치에 대응된 도로의 종류를 포함할 수 있다.
상기 제어부는, 상기 도로의 종류에 기초하여 상기 우선순위를 결정할 수 있다.
상기 제어부는, 차량과 상기 오브젝트에 대응된 실재물(entity, 實在物)의 간섭이 예상되는 경우 선택적으로 상기 오브젝트 관련정보를 출력할 수 있다.
상기 제어부는, 상기 영상을 표시하는 디스플레이 모듈 또는 소리를 출력하는 오디오 출력 모듈 중 적어도 어느 하나로 상기 오브젝트 관련정보를 출력할 수 있다.
상기 제어부는, 상기 추출한 오브젝트의 위치, 상기 추출한 오브젝트의 이동방향 중 적어도 하나를 지시하는 인디케이터(indicator)를 디스플레이 모듈에 표시할 수 있다.
또한, 상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자기기의 제어방법은, 영상을 촬영하는 단계; 차량의 현재 위치를 획득하는 단계; 상기 영상에 포함된 적어도 하나의 오브젝트를 추출하는 단계; 및 맵 정보 및 상기 현재 위치에 따른 우선순위를 토대로 상기 추출한 적어도 하나의 오브젝트 관련정보를 출력하는 단계를 포함할 수도 있다.
상기 영상은, 야간 영상을 포함할 수 있다.
상기 출력하는 단계는, 상기 추출한 오브젝트의 위치, 상기 추출한 오브젝트의 이동방향 중 적어도 하나를 지시하는 적어도 하나의 인디케이터(indicator)를 표시하는 단계를 포함할 수 있다.
또한, 상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자기기의 제어방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체를 포함할 수 있다.
본 발명에 따른 전자 기기 및 그 제어방법은, 맵정보 및 차량의 현재 위치 중 적어도 하나에 따른 우선순위에 따라 촬영한 영상에 포함된 오브젝트 관련정보를 출력하므로, 차량의 현재 위치에 최적화된 교통사고 예방정보를 제공할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 시스템을 도시한 도면이다.
도 2는 본 발명의 다른 실시예에 따른 시스템을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 차량용 내비게이션의 블록구성도이다.
도 4는 본 발명의 일 실시예에 따른 차량용 블랙박스의 블록구성도이다.
도 5는 본 발명의 일 실시예에 따른 시스템을 포함하는 통신망을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 전자 기기의 동작을 도시한 플로우챠트이다.
도 7은 도 6 전자 기기의 출력하는 과정을 구체적으로 도시한 플로우챠트이다.
도 8은 본 발명의 일 실시예에 따른 시스템이 탑재된 차량이 위치할 수 있는 도로의 예를 도시한 도면이다.
도 9는 도 8 도로 중 A 위치에서 촬영한 영상을 도시한 도면이다.
도 10은 도 9 영상의 분석에 따른 경고화면 및 경고음성의 출력을 도시한 도면이다.
도 11은 도 8 도로 중 B 위치에서의 경고화면 및 경고음성의 출력을 도시한 도면이다.
도 12는 차량의 위치에 따른 감지 우선순위를 도시한 표이다.
도 13은 감지 우선순위에 따른 발견가능성을 도시한 도면이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 일, 일 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다
어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 또는 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예들에 따른 차선 안내 방법을 구현하기 위한 시스템의 일 예를 도시한 도면이다.
도 1을 참조하면, 시스템(10)은 차량의 운행, 유지 등과 관련된 각종 데이터를 차량의 운전자 및 동승자에게 알려주는 제1 전자 기기(100)와 차량의 운행과 관련된 데이터를 기록하는 제2 전자 기기(200)를 포함할 수 있다.
아래에서는, 차량 안내 방법을 구현하기 위한 시스템(10)이 '내비게이션 시스템'이고, 제1 전자 기기(100) 및 제2 전자 기기(200)가 각각 '차량용 내비게이션' 및 '차량용 블랙박스'인 경우를 예로 들어 설명한다. 그러나, 본 발명은 이에 한정되지 않으며, 본 발명에서는 차선 안내 방법을 구현하기 위해 다른 종류의 전자 기기를 사용할 수도 있다. 예를 들어, 제1 전자 기기(100) 또는 제2 전자 기기(200)는 이동통신 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등으로 구현될 수도 있다. 또한, 본 발명의 실시 예들에서는, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 서로 별도로 마련되는 경우를 예로 들어 설명하나, 본 발명은 이에 한정되지 않는다. 본 발명에 따르면, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 일체화되는 경우도 가능하다.
차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이 모듈(141)과, 내비게이션 조작키(193)와, 내비게이션 마이크(195)를 포함할 수 있다.
내비게이션 하우징(191)은 차량용 내비게이션(100)의 외관을 형성한다. 차량용 내비게이션(100)은, 계절적인 요인 등에 의한 고온 또는 저온에 노출되거나, 직/간접적인 외부 충격을 받는 등 다양한 조건의 환경에 노출될 수 있다. 내비게이션 하우징(191)은 외부 환경의 변화로부터 차량용 내비게이션(100) 내부의 각종 전자부품을 보호하는 한편, 차량용 내비게이션(100)의 외관을 미려하게 할 목적을 가질 수 있다. 이와 같은 목적을 달성하기 위하여, 내비게이션 하우징(191)은 ABS, PC 또는 강도가 강화된 엔지니어링 플라스틱 등의 소재를 사출성형하는 방법으로 가공될 수 있다.
디스플레이 모듈(141)은 각종 데이터를 시각적으로 표시하는 부분이다. 디스플레이 모듈(141)에 표시되는 각종 데이터는, 경로 데이터 등이 결합된 지도(map) 데이터이거나, DMB 방송을 포함한 각종 방송 화면이거나, 저장부에 저장되어 있던 영상일 수 있다. 디스플레이 모듈(141)은 물리적 또는 논리적으로 수개로 분할될 수 있다. 물리적으로 분할된 디스플레이 모듈(141)은 2개 이상의 디스플레이 모듈(141)가 인접하여 마련된 경우를 의미한다. 논리적으로 분할된 디스플레이 모듈(141)은, 물리적으로 1개의 디스플레이 모듈(141)에 복수개의 독립된 화면을 표시하는 경우를 의미한다. 예를 들어, DMB 방송을 수신하여 표시하고 있는 도중에 디스플레이 모듈(141)의 일부 영역에 경로데이터를 표시하거나, 디스플레이 모듈(141)의 일부 영역과 다른 영역에 각각 DMB 방송과 지도 화면을 표시하는 경우일 수 있다. 각종 기능이 차량용 내비게이션(100)에 컨버젼스(convergence)되는 경향에 따라 디스플레이 모듈(141)를 논리적으로 분할하여 다양한 데이터를 표시하는 경우가 점차 증가하고 있다. 나아가, 각종 데이터를 표시하기 위하여, 디스플레이 모듈(141)은 점차 대화면화 되고 있다.
디스플레이 모듈(141)의 전면(全面) 또는 일부는 사용자의 터치입력을 수신할 수 있는 터치스크린일 수 있다. 예를 들어, 디스플레이 모듈(141)에 표시된 기능선택 버튼을 터치함으로써 그 기능을 활성화할 수 있다. 즉, 디스플레이 모듈(141)가 영상의 출력부(도 3의 140)인 동시에 입력부(도 3의 120)일 수 있음을 의미한다.
내비게이션 조작키(193)는 차량용 내비이게이션(100)의 각종 기능을 실행하거나 사용자가 직접 필요한 데이터를 입력하도록 하기 위하며 마련될 수 있다. 빈번하게 사용하는 특정 기능을 내비게이션 조작키(193)에 맵핑(mapping)하여 사용편의성을 향상할 수 있다.
내비게이션 마이크(195)는 음성과 음향을 포함하는 소리(sound)를 수신하기 위하여 마련될 수 있다. 예를 들어, 내비게이션 마이크(195)로 수신한 음성 신호에 기초하여 차량용 내비게이션(100)의 특정 기능의 실행이 가능할 수 있다. 또한, 내비게이션 마이크(195)로 수신한 음향 신호에 기초하여 사고의 발생 등 차량의 현 상태를 감지할 수 있다.
차량용 블랙박스(200)는 차량용 내비게이션(100)과 신호를 교환하여 차량의 사고 처리 과정 등에 필요한 데이터를 저장할 수 있다. 예를 들어, 차량의 운행 중에 사고가 발생한 경우에, 차량용 블랙박스(200)에서 획득하여 저장한 영상을 분석하여 사고의 경위 및 과실의 정도를 판단하는데 사용할 수 있다. 또한, 차량용 내비게이션(100)과 연결되어 있는 차량용 블랙박스(200)는, 차량용 내비게이션(100)에 저장되어 있는 각종 데이터를 활용할 수 있다. 예를 들어, 차량용 블랙박스(200)에서 획득한 영상을 차량용 내비게이션(100)에 저장된 지도 데이터에 매핑시켜 차량용 블랙박스(200)의 효용성을 증대시킬 수 있음을 의미한다.
차량용 블랙박스(200)는 주행 중 및 정차 중에 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상을 촬영할 수 있음은 물론, 차량이 정차하여 있는 경우에도 영상을 촬영할 수 있다. 차량용 블랙박스(200)를 통하여 획득된 영상의 화질은, 일정하거나 변화될 수 있다. 예를 들어, 사고의 발생을 전후하여서는 영상의 화질을 높게 하고, 통상적인 경우에는 영상의 화질을 낮게 함으로써 요구되는 저장공간을 최소화하면서도 핵심적인 영상을 저장할 수 있다.
차량용 블랙박스(200)는 블랙박스 카메라(225)와, 블랙박스 마이크(223)와, 부착부(281)를 포함할 수 있다.
블랙박스 카메라(225)는 차량의 외부 또는 실내를 촬영할 수 있다. 또한, 블랙박스 카메라(225)는 단수개 또는 복수개 마련될 수 있다. 블랙박스 카메라(225)가 복수개인 경우에는, 1개는 차량용 블랙박스(200)와 일체화 되고 나머지는 차량의 각 부분에 부착된 상태에서 촬영한 영상을 차량용 블랙박스(200)로 송신할 수 있다. 블랙박스 카메라(225)가 단수개인 경우에, 블랙박스 카메라(225)는 차량의 전방을 촬영하도록 설치될 수 있다. 블랙박스 카메라(225)에서 촬영된 영상은, 차량용 블랙박스(200) 또는 차량용 내비게이션(100)에 저장될 수 있다.
블랙박스 마이크(223)는 차량 내외부에서 발생하는 사운드(sound)를 획득할 수 있다. 블랙박스 마이크(223)는, 전술한 내비게이션 마이크(195)와 유사한 기능을 수행할 수 있다.
부착부(281)는 차량용 블랙박스(200)를 차량에 고정되도록 할 수 있다. 부착부(281)는, 차량용 블랙박스(200)를 차량의 전면유리에 부착할 수 있는 흡착판이거나, 차량의 룸밀러 등에 결합할 수 있는 고정장치일 수 있다.
도 2는 본 발명의 실시 예들에 따른 차선 안내 방법을 구현하기 위한 시스템의 다른 예를 도시한 도면이다.
도 2를 참조하면, 내비게이션 시스템(10)을 구성하는 차량용 내비게이션(100)과 차량용 블랙박스(200)은 무선으로 서로 연결될 수 있다. 즉, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 별도의 디바이스이며, 그 사이에 물리적인 연결장치가 없을 수 있음을 의미한다. 차량용 내비게이션(100)과 차량용 블랙박스(200)는, 블루투스(Bluetooth), RFID(Radio Frequency Idntification), 적외선 통신(IrDA, Infraed Data Association), UWB(Ultra WidBand), 지그비(ZigBee) 등의 통신 방식을 이용하여 통신할 수 있다.
도 3은 본 발명의 실시 예들에 따른 차량용 내비게이션의 구조도이다.
도 3을 참조하면, 차량용 내비게이션(100)은 제1 통신부(110), 제1 입력부(120), 제 1센싱부(130), 출력부(140), 제1 저장부(150), 제1 전원부(160) 및 제1 제어부(170)를 포함할 수 있다. 도 3에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기를 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
제1 통신부(110)는 차량용 내비게이션(100)과 통신 시스템 사이 또는 차량용 내비게이션(100)과 차량용 내비게이션(100)이 위치한 네트워크 사이 또는 차량용 내비게이션(100)과 다른 전자 기기와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 제1 통신부(100)는, 제1 위치 데이터 모듈(111), 제1 무선 인터넷 모듈(113), 방송 송수신 모듈(115), 제1 근거리 통신 모듈(117), 제1 유선 통신 모듈(119) 등을 포함할 수 있다.
제1 위치 데이터 모듈(111)은 차량용 내비게이션(100)의 위치 데이터를 확인하거나 얻기 위한 모듈이다. 제1 위치 데이터 모듈(111)이 위치 데이터를 획득하는 방법으로는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 방법이 사용될 수 있다. GNSS는 인공위성(도 5의 20)으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 실시 예들에 따른 차량용 내비게이션(100)의 위치 데이터 모듈(111)은, 차량용 내비게이션(100)이 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 제1 위치 데이터 모듈(111)은 차량용 내비게이션(100)의 현재 위치를 실시간으로 계속 산출하고, 이를 이용하여 속도 정보를 산출하기도 한다.
제1 무선 인터넷 모듈(113)은 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷 모듈(113)을 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave acess), HSDPA(High Speed Downlink Packet Acess) 등 일 수 있다.
방송 송수신 모듈(115)은 각종 방송 시스템을 통하여 방송 신호를 수신하는 장치이다. 방송 송수신 모듈(115)을 통하여 수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Foeward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Tereestrial) 등일 수 있다. 방송 송수신 모듈(115)을 통하여 수신되는 방송 신호에는 교통데이터, 생활데이터 등이 포함될 수 있다.
제1 근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
제1 유선 통신 모듈(119)은 차량용 내비게이션(100)에 연결되는 다른 전자 기기와의 인터페이스를 제공하는 역할을 수행한다. 예를 들어, 제1 유선 통신 모듈(119)은, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다.
제1 입력부(120)는 차량용 내비게이션(100)의 동작 제어를 위한 입력 데이터를 발생시키는 모듈로서, 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 제1 입력부(120)는 제1 사용자 입력 모듈(121), 제1 마이크(123) 등을 포함할 수 있다.
제1 사용자 입력 모듈(121)은 사용자로부터 차량용 내비게이션(100)의 동작 제어를 위한 제어 입력을 수신한다. 제1 사용자 입력 모듈은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 예를 들어, 제1 사용자 입력 모듈(121)은 차량용 내비게이션(100)의 하우징(도 1의 191) 외부에 마련된 내비게이션 조작키(도 1의 193)로 구현될 수 있다.
제1 마이크(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신하는 장치이다. 제1 마이크(123)는 차량용 내비게이션(100)의 하우징(도 1의 191) 외부에 마련된 내비게이션 마이크(195)로 구현될 수 있다.
제1 센싱부(130)는 차량용 내비게이션(100)의 현재 상태를 감지하여 차량용 내비게이션(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 제1 센싱부(130)는 제1 모션 센싱 모듈(131), 광 센싱 모듈(133) 등을 포함할 수 있다.
제1 모션 센싱 모듈(131)은 차량용 내비게이션(100)의 3차원 공간 상에서의 움직임을 감지할 수 있다. 제1 모션 센싱 모듈(131)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 제1 모션 센싱 모듈(131)을 통하여 획득한 움직임 데이터를 위치 데이터 모듈(111)을 통하여 획득한 위치 데이터와 결합하여, 차량용 내비게이션(100)을 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.
광 센싱 모듈(133)은 차량용 내비게이션(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱 모듈(133)을 통하여 획득한 조도 데이터를 이용하여, 디스플레이 모듈(141)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.
출력부(140)는 차량용 내비게이션(100)이 데이터를 출력하는 장치이다. 출력부(140)는 디스플레이 모듈(141), 오디오 출력 모듈(143) 등을 포함할 수 있다.
디스플레이 모듈(141)은 차량용 내비게이션(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이 모듈(141)은, 차량용 내비게이션(100)의 하우징(도 1의 191) 전면(前面)에 마련된 디스플레이부(도 1의 145)로 구현될 수 있다. 한편, 디스플레이 모듈(141)이 터치스크린인 경우라면, 데이터의 출력부(140)인 동시에 제1 입력부(120)의 역할을 동시에 할 수 있음은 전술한 바와 같다.
오디오 출력 모듈(143)은 청각적으로 인식될 수 있는 오디오 데이터를 출력한다. 오디오 출력 모듈(143)은, 차량용 내비게이션(100)에서 수행되는 기능(예를 들어, 경로 안내 기능)과 관련된 오디오 신호를 출력한다. 이러한 오디오 출력 모듈(143)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
제1 저장부(150)는 차량용 내비게이션(100)의 동작을 위한 프로그램을 저장할 수 있고, 차량용 내비게이션(100)과 관련하여 입/출력되는 데이터(경로 데이터, 영상 데이터)들을 임시 저장할 수도 있다. 또한, 제1 저장부(150)는 경로 안내 서비스에 사용되는 지도(map) 데이터를 저장할 수도 있다. 제1 저장부(150)는 차량용 내비게이션(100)의 내부에 내장되거나, 탈부착이 가능하며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량용 내비게이션(100)은 인터넷(internet)상에서 상기 제1 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
제1 전원부(160)는 외부의 전원, 내부의 전원을 인가받아 차량용 내비게이션(100)의 각 구성요소들 또는 차량용 내비게이션(100)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다.
제1 제어부(170)는 통상적으로 차량용 내비게이션(100)의 전반적인 동작을 제어한다. 나아가, 제1 제어부(170)는 차량용 내비게이션(100)에 연결된 다른 디바이스를 제어하는 제어신호를 출력할 수도 있다.
도 4는 본 발명의 실시 예들과 관련된 차량용 블랙박스의 구조도이다.
도 4를 참조하면, 차량용 블랙박스(200)는 제2 통신부(210), 제2 입력부(220), 제2 센싱부(230), 제2 저장부(250), 제2 전원부(260), 제2 제어부(270) 등을 포함할 수 있다. 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기를 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
제2 통신부(210)는 차량용 블랙박스(200)와 통신 시스템 사이 또는 차량용 블랙박스(200)와 차량용 블랙박스(200)가 위치한 네트워크 사이 또는 차량용 블랙박스(200)와 다른 전자 기기(예를 들어, 차량용 내비게이션(100))와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 제2 통신부(210)는 제2 위치 데이터 모듈(211), 제2 무선 인터넷 모듈(213), 제2 근거리 통신 모듈(217), 제2 유선 통신 모듈(219) 등을 포함할 수 있다. 제2 위치 데이터 모듈(211), 제2 무선 인터넷 모듈(213), 제2 근거리 통신 모듈(217) 및 제2 유선 통신 모듈(219)은 각각 제1 위치 데이터 모듈(111), 제1 무선 인터넷 모듈(113), 제1 근거리 통신 모듈(117) 및 제1 유선 통신 모듈(119)과 유사한 동작을 수행하므로, 아래에서는 상세한 설명을 생략한다.
제2 입력부(220)는 차량용 블랙박스(200)의 외부로부터의 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 제2 입력부(220)는 제2 사용자 입력 모듈(221), 제2 마이크(223), 카메라(225) 등을 포함할 수 있다.
제2 사용자 입력 모듈(221)은 사용자로부터 차량용 블랙박스(200)의 동작 제어를 위한 제어 입력을 수신할 수 있다. 제2 사용자 입력 모듈(221)은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 푸쉬 버튼 등으로 구성될 수 있다. 제2 사용자 입력 모듈(221)은 필수적인 구성 요소는 아니어서, 차량용 블랙박스(200)가 차량용 내비게이션(100)에 의해 제어되는 경우, 차량용 블랙박스(200)의 구성 요소에서 제외될 수도 있다.
제2 마이크(223)는 외부로부터 수신되는 오디오 신호를 특정 전기 신호로 변환하여 오디오 데이터를 발생시킨다. 예를 들어, 제2 마이크는 차량의 주행과 관련된 오디오 데이터를 획득할 수 있다. 제2 마이크(223)는 도 1에 도시된 차량용 블랙박스(200)의 마이크(224)에 대응될 수 있다.
카메라(225)은 외부로부터 수신되는 영상 신호를 특정 전기 신호로 변환하여 영상 데이터를 발생시킨다. 예를 들어, 카메라(225)는 차량의 주행과 관련된 차량의 내, 외부의 영상 데이터를 획득할 수 있다. 카메라(225)는 도 1에 도시된 차량용 블랙박스(200)의 카메라(222)에 대응될 수 있다. 상기 카메라(225)는 야간에도 사물 식별이 가능하도록 영상을 촬영할 수 있는 적외선 카메라 등으로 구현될 수 있다. 그러나 본 발명의 범위가 이에 한정되는 것은 아니다.
제2 센싱부(230)는 차량용 블랙박스(200)의 현재 상태를 감지하여 차량용 블랙박스(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 제2 센싱부(230)는 제2 모션 센싱 모듈(231) 및 조도 센서(232)를 포함할 수 있다.
상기 제2 모션 센싱 모듈(231)은 전술한 제1 모션 센싱 모듈(도 3의 131)과 유사한 동작을 수행한다. 상기 조도 센서(232)는 주위의 조도를 감지할 수 있다. 상기 조도 센서(232)에 의하여 감지된 조도값은 상기 블랙박스(200)의 야간 식별 카메라의 활성화를 제어하는데 이용될 수 있다. 상기 조도 센서(232)에서 감지된 조도값이 야간 식별 카메라의 활성화에 이용되는 과정에 대해서는 향후 도 6 내지 도 13을 참조하여 자세히 살펴 본다.
제2 저장부(250)는 차량용 블랙박스(200)의 동작을 위한 프로그램을 저장할 수 있고, 차량용 블랙박스(200)와 관련하여 입/출력되는 데이터(영상 데이터, 오디오 데이터 등)들을 저장할 수도 있다. 예를 들어, 제2 저장부(250)는 제2 마이크(223)를 통해 획득되는 오디오 데이터 또는 카메라(225)를 통해 획득되는 영상 데이터를 저장할 수 있다. 제2 저장부(250)는 차량용 블랙박스(200)의 내부에 내장되거나, 탈부착이 가능하며, 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량용 블랙박스(200)는 인터넷(internet)상에서 상기 제2 저장부(250)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
제2 전원부(260)는 외부의 전원, 내부의 전원을 인가받아 차량용 블랙박스(200)의 각 구성요소들 또는 차량용 블랙박스(200)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다.
제2 제어부(270)는 통상적으로 차량용 블랙박스(200)의 전반적인 동작을 제어한다. 제2 제어부(270)는 차량용 내비게이션(도 3의 100)의 제1 제어부(도 3의 170)의 제어신호에 영향 받을 수 있다. 즉, 제2 제어부(270)는 제1 제어부(도 3의 170)에 종속적일 수 있음을 의미한다.
도 5는 본 발명의 실시 예들과 관련된 내비게이션 시스템을 포함하는 통신망의 구성도이다.
도 5를 참조하면, 내비게이션 시스템(10)은 다양한 통신망 및 다른 전자 다비이스(61 내지 64)와 접속할 수 있다.
내비게이션 시스템(10)은, 인공위성(20)으로부터 수신한 전파신호를 사용하여 현재의 위치를 산출할 수 있다. 각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 내비게이션 시스템(10)은, 각각의 인공위성(20)에서 송신된 L밴드 주파수가 내비게이션 시스템(10)에 도달하는데 까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.
내비게이션 시스템(10)은 제어국(40, ACR), 기지국(50, RAS) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 내비게이션 시스템(10)이 접속하면, 네크워크(30)에 접속한 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.
내비게이션 시스템(10)은, 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 장치가 내비게이션 시스템(10)에 마련되지 않은 경우에, 근거리 통신을 이용하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있음을 의미한다.
도 6은 본 발명의 일 실시예에 따른 전자 기기의 동작을 도시한 플로우챠트이고, 도 7은 도 6 전자 기기의 출력하는 과정을 구체적으로 도시한 플로우챠트이다.
이들 도면들에 도시한 바와 같이, 본 발명의 일 실시예에 따른 내비게이션 시스템(10)의 제1 제어부(170)는, 영상을 촬영하는 단계(S10)가 진행되도록 할 수 있다.
영상은, 블랙박스 카메라(225)를 통하여 촬영될 수 있다. 블랙박스 카메라(225)는, 하나 또는 복수 개가 마련되어 차량의 전방 등을 영상을 촬영할 수 있다. 블랙박스 카메라(225)를 통하여 촬영한 영상은, 차량용 내비게이션(100)의 제1 저장부(150) 또는 차량용 블랙박스(200)의 제2 저장부(250)에 저장될 수 있다.
차량용 블랙박스(200)의 블랙박스 카메라(225)를 통하여 촬영한 영상이 제1 저장부(150)에 저장되기 위해서, 차량용 블랙박스(200)는 차량용 내비게이션(100)과 유선 및/또는 무선으로 데이터를 교환할 수 있다.
영상은, 다양한 조건하에서 촬영된 것일 수 있다. 영상은 해가 진 이후의 시간인 야간에 촬영된 것일 수 있다. 통상적으로, 주간에 비하여 야간에는 사물에 대한 식별력이 저하될 수 있다. 예를 들어, 동일한 위치의 동일한 사물인 경우에도, 야간에는 그 위치에 그 사물이 있다는 것을 쉽게 판별할 수 없는 경우가 발생할 수 있다. 본 발명의 일 실시예에 따른 내비게이션 시스템(10)은, 야간에도 적외선 카메라 등을 이용하여 운행 중인 차량의 주변을 촬영함으로써, 차량 주위의 사물에 대한 데이터를 확보할 수 있다.
영상은, 기상상황이 좋지 않은 상태에서 촬영된 것일 수 있다. 예를 들어, 눈이나 비가 오거나 안개가 끼여있는 기상상태에서 촬영된 것일 수 있다.
본 발명의 일 실시예에 따른 내비게이션 시스템(10)은, 야간 등 운전자의 시야가 좋지 않을 것으로 예상되는 상황에 있을 때 영상을 촬영할 수 있다. 예를 들어, 주간 등 운전자의 시야가 충분히 확보될 것으로 예상되는 시간에는 촬영하지 않고, 야간 등 시야가 좋지 않을 것으로 예상되는 시간에 선택적으로 영상을 촬영할 수 있다.
영상을 촬영하면, 촬영한 영상에 포함된 오브젝트를 추출하는 단계(S20)가 진행될 수 있다.
촬영한 영상에는, 다양한 오브젝트가 포함될 수 있다. 오브젝트는, 촬영한 영상에 포함된 각종 실재물(entity) 일 수 있다. 예를 들어, 촬영된 영상에 포함된 차량의 이미지, 사람의 이미지 등일 수 있다.
본 발명의 일 실시예에 따른 제어동작을 수행하기 위하여, 제1 제어부(도 1의 170)는 촬영한 영상에서 오브젝트를 추출할 수 있다. 예를 들어, 도로의 이미지와 그 위에 있는 이동하는 차량의 이미지를 분리할 수 있음을 의미한다. 이미지의 추출은 윤곽인식 방법 등이 적용될 수 있다. 나아가, 영상이 야간에 촬영된 경우라면, 적외선 촬영 등으로 확보한 영상에서 사람의 오브젝트 등을 추출할 수 있다.
현재 위치의 맵 정보를 획득하는 단계(S30)가 진행될 수 있다.
현재 위치는 제1 위치 데이터 모듈(111) 및/또는 제2 위치 데이터 모듈(211)을 통하여 획득할 수 있다. 다만, 이해의 편의를 고려하여, 이하에서는 차량용 내비게이션(100)에 위치한 제1 위치 데이터 모듈(111)을 통하여 현재 위치를 획득하는 경우에 대하여 설명하도록 한다.
*맵(map) 정보는, 차량용 내비게이션(100)의 제1 저장부(150)에 저장되어 있을 수 있다. 맵 정보는, 도로, 건물 등의 위치 정보 및 각종 POI(Point of Interest) 정보를 포함할 수 있다. 차량용 내비게이션(100)은, 맵 정보를 이용하여 경로안내를 수행한다.
현재 위치의 맵 정보는, 차량의 현 위치를 기준으로 한 맵 정보일 수 있다. 예를 들어, 차량이 현재 위치한 도로가 폭이 좁은 이면도로인지, 폭이 넓은 간선도로인지, 고속도로인지 여부 등일 수 있다. 본 발명의 일 실시예에 따른 내비게이션 시스템(10)은 도로의 상태에 따라 동작이 상이할 수 있음으로, 현재 위치의 맵 정보의 획득이 필요할 수 있다.
오브젝트에 관련된 정보를 맵 정보에 기초하여 출력하는 단계(S40)가 진행될 수 있다.
오브젝트에 관련된 정보는, 차량과 오브젝트가 간섭될 가능성이 있는가 여부에 대한 정보일 수 있다. 예를 들어, 차량 주위에서 이동하는 사람이, 이동하는 차량과 추돌할 가능성이 있는가 여부를 알려주는 정보일 수 있다. 이하에서는, 도 7을 참조하여 출력하는 단계(S40)를 구체적으로 설명하도록 한다.
출력하는 단계(S40)는 오브젝트의 종류를 감지하는 단계(S41)를 포함할 수 있다.
제1 제어부(170)는, 추출한 오브젝트를 분석하여 그 종류를 판단할 수 있다. 예를 들어, 오브젝트가 사람인지, 차량인지 등을 판단할 수 있음을 의미한다.
오브젝트의 종류는, 추출한 이미지에 대한 분석을 통해서 판단할 수 있다. 즉, 세로로 길며 이동성을 가지고 있다면 사람으로 판단할 수 있고, 상대적으로 크고 사각형 형상으로 이동성을 가지고 있다면 차량으로 판단할 수 있다. 나아가, 적외선 촬영 등을 이용한 경우라면, 온도 분포 등을 이용하여 오브젝트가 사람인지 차량인지 여부를 판단할 수도 있다.
제1 제어부(170)는, 오브젝트의 윤곽을 식별하거나 오브젝트가 차지하고 있는 면적의 형상에 기초하여 오브젝트의 종류를 판단할 수 있다.
오브젝트의 종류를 감지하면, 그 오브젝트가 현 위치에서 감지대상에 속하는가 판단하는 단계(S42)가 진행될 수 있다.
감지해야 할 오브젝트는, 현재 위치에 따라서 상이할 수 있다. 예를 들어, 고속도로에서는 사람 보다는 주위의 차량을 중점적으로 감시하여야 할 필요가 있는 반면에, 주택가의 골목길에서는 주위의 사람을 보다 중점적으로 감시하여야 할 필요가 있다. 즉, 중점 감시 대상을 선택적으로 결정할 수 있음을 의미한다.
현재 위치에 따라서 보다 중점적으로 감지해야 할 대상을 선정하면, 시스템의 자원을 효과적으로 분배할 수 있다. 즉, 촬영된 모든 오브젝트에 대해서 균등하게 리소스를 배분하여 감시하는 경우에는 현재 위치에 최적화된 감시를 기울일 수 없을 수 있다. 예를 들어, 골목길을 주행하고 있음에도 정차되어 있는 차량을 감시하게 되면, 움직이고 있는 사람을 보다 면밀하게 감시할 수 있는 기회를 놓칠 수 있다. 따라서 본 발명의 일 실시예에 따른 내비게이션 시스템(10)은, 내비게이션 시스템(10)의 현 위치에 최적화된 감지대상을 선정할 수 있다.
오브젝트가 현 위치에서의 감지대상이면, 오브젝트의 위치 및 운동방향을 감지하는 단계(S43)가 진행될 수 있다
차량의 근방에 사람으로 판단되는 오브젝트가 있다는 정보만으로는, 그 사람이 운행 중인 차량과 접촉할 가능성이 있는지 여부에 대한 완전한 판단이 이루어질 수 없다. 즉, 운행 중인 차량과 접촉할 가능성에 대한 정확한 정보는, 그 오브젝트의 위치와 운동방향에 기초하여 보다 정확히 판단될 수 있음을 의미한다. 이와 같은 점은, 다음의 예로 설명될 수 있다.
차량의 우 전방에 사람에 해당하는 오브젝트가 존재하는 것으로 감지된 경우에, 그 사람의 위치가 차량의 진행 경로상에 위치하는가 여부 및 그 사람이 어느 방향으로 이동하고 있는가에 대한 정보가 필요할 수 있다. 현재 위치에서는 차량의 진행 경로상에 사람이 위치한다고 하여도, 그 사람이 진행 경로의 외측으로 빠르게 이동하고 있다면 차량과의 충돌위험이 낮다고 볼 수 있다. 반면, 현재 위치에서는 차량의 진행 경로 외부에 위치한다고 하여도, 그 사람이 진행 경로 내측으로 이동하고 있다면 차량과의 충돌위험이 있다고 볼 수 있다.
본 발명의 일 실시예에 따른 내비게이션 시스템(10)은, 오브젝트의 위치 및 운동방향을 감지함으로써 오브젝트와의 충돌 가능성을 경고해야 할지에 대한 기초 데이터를 생성할 수 있다.
경고의 필요성이 있는가 여부를 판단(S44)하여, 필요한 경우에 경고를 출력(S45)할 수 있다.
제1 제어부(170)는, 오브젝트의 종류, 위치 및 운동방향을 감지한 결과에 기초하여 차량과의 충돌 가능성 여부를 판단할 수 있다. 즉, 차량 운전자에게 충돌가능성에 대한 경고를 수행할지 여부를 판단할 수 있다.
오브젝트와 차량이 충돌할 가능성이 있는 것으로 판단되면, 제1 제어부(170)는 경고를 출력할 수 있다. 경고는, 차량 운전자 및/또는 오브젝트에 대하여 수행될 수 있다.
차량 운전자에 대해서는, 출력부(140)를 통한 시각적, 청각적 방법으로 경고가 수행될 수 있다. 예를 들어, 디스플레이 모듈(141)을 통하여 아이콘 등을 표시하거나, 오디오 출력 모듈(143)을 통하여 경고음 등을 발생할 수 있다. 차량 운전자에게 경고를 함으로써, 그 오브젝트에 대한 차량 운전자의 주의를 환기시킬 수 있다.
차량 운전자에 대한 주의 환기는, 전방 시야가 좋지 않은 야간과 같은 상황에서 보다 효과적일 수 있다. 예를 들어, 차량의 전방에 있으나 전조등에 의하여 비춰지지 않는 부분에 사람이 있는 경우에, 출력부(140)를 통하여 알림으로써 차량 운전자가 그 사람의 존재에 대해서 인지하도록 할 수 있음을 의미한다.
오브젝트에 대해서는, 차량의 경적이 자동적으로 작동시키거나, 헤드라이트가 켜지도록 할 수 있다. 보행자와 같은 오브젝트에게 경고를 함으로써, 보행자의 등의 주의를 환기시킬 수 있다.
도 8은 본 발명의 일 실시예에 따른 시스템이 탑재된 차량이 위치할 수 있는 도로의 예를 도시한 도면이고, 도 9는 도 8 도로 중 A 위치에서 촬영한 영상을 도시한 도면이다. 또한, 도 10은 도 9 영상의 분석에 따른 경고화면 및 경고음성의 출력을 도시한 도면이고, 도 11은 도 8 도로 중 B 위치에서의 경고화면 및 경고음성의 출력을 도시한 도면이다.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 내비게이션 시스템(10)은, 차량의 현재 위치에 따라서 오브젝트에 대한 감지 수준을 다르게 수행할 수 있다. 따라서 보다 효과적으로 사고를 예방할 수 있다.
도 8에 도시한 바와 같이, 차량이 이동할 수 있는 맵(M)을 통하여 볼 때, 차량은 상대적으로 폭이 넓은 간선도로 구간(A)과 상대적으로 폭이 좁은 이면도로 구간(B)을 통과할 수 있다.
간선도로 구간(A)은, 자동차 전용도로나 고속도로와 같이 사람의 보행은 제한되고 차량만이 이용할 수 있는 도로일 수 있다. 이면도로 구간(B)은, 주택가의 도로와 같이 주로 사람의 보행을 위하여 생성되었으나 차량도 운행 가능한 도로일 수 있다.
도 9에 도시한 바와 같이, 디스플레이 모듈(141)에는 카메라(225)를 통하여 촬영한 영상이 표시될 수 있다. 제1 제어부(170)는 촬영한 영상에 포함된 제1 내지 6 오브젝트(OB1 내지 OB6)의 종류, 위치 및 운동방향을 판단할 수 있다.
제1 내지 6 오브젝트(OB1 내지 OB6)에 대한 정보를 수집함에 있어서, 제1 제어부(170)는 그 중요성을 달리할 수 있다. 예를 들어, 도 9에 도시한 바와 같이, 도로 폭이 넓은 도로에서는 차량으로 판단된 오브젝트(OB1 내지 OB3)를 관찰하는데 더 많은 시스템 리소스를 할당할 수 있음을 의미한다. 따라서 촬영한 영상을 분석하여 그에 포함된 오브젝트의 위험도를 보다 효과적이고 빠르게 판단할 수 있다.
제1 오브젝트(OB1)는, 운전자 차량의 바로 앞 차량일 수 있다. 제1 제어부(170)는 이미지 인식을 통하여 제1 오브젝트(OB1)이 차량인 것으로 판단할 수 있다. 또한, 제1 오브텍트(OB1)가 운전자 차량과 같은 방향인 제1 방향(D1)으로 이동하고 있는 것으로 판단할 수 있다.
제2 오브젝트(OB2)는, 중앙선 너머의 차량일 수 있다. 제1 제어부(170)는 이미지 인식을 통하여 제2 오브젝트(OB2)가 차량이라는 점 및 운전자 차량과 역방향인 제2 방향(D2)으로 이동하고 있다는 점을 알 수 있다.
제3 오브젝트(OB3)는, 옆 차선의 차량일 수 있다. 제1 제어부(170)는 제3 오브젝트(OB3)가 차량이라는 점 및 운전자 차량과 동일한 제3 방향(D3)으로 이동하고 있다는 점을 알 수 있다.
제4 내지 6 오브젝트(OB4, OB5, OB6)는 사람일 수 있다. 이때, 제4 및 5 오브젝트(OB4, OB5)는 운전자 차량과 나란한 방향인 제4,5 방향(D4, D5)으로 이동하고 있으며, 제6 오브젝트(OB6)는 운전자 차량의 전방 방향인 제6 방향(D6)으로 이동하고 있다는 점을 제1 제어부(170)가 알 수 있다. 제1 제어부(170)는, 운전자 차량의 경로 및 제6 오브젝트(OB6)의 운동방향에 따를 때 운전자 차량과 충돌할 가능성이 있는 것으로 판단할 수 있다.
도 10에 도시한 바와 같이, 제1 제어부(170)는 인디케이터(I1, I2)를 표시하여 제6 오브젝트(OB6)에 대한 운전자의 주의를 환기시킬 수 있다. 예를 들어, 제6 오브젝트(OB6)의 주위에 제1 인디케이터(I1)를 표시하는 한편, 제6 오브젝트(OB6)의 방향을 제2 인디케이터(I2)로 표시할 수 있다. 디스플레이 모듈(141)에 제1,2 인디케이터(I1, I2)가 표시됨으로 인하여, 사용자는 제6 오브젝트(OB6)에 보다 큰 주의를 기울일 수 있다. 따라서 사고의 예방을 기대할 수 있다. 나아가, 제1 제어부(170)는, 전방 시야가 좋지 않을 것으로 예상되는 상황에서 선택적으로 이와 같은 기능을 활성화 할 수 있다. 따라서 효과적인 시스템의 리소스의 활용을 기대할 수 있다.
제1 제어부(170)는 오디오 출력 모듈(143)을 사용하여, 차량의 운전자에게 경고 음성을 출력할 수도 있다. 예를 들어, ‘보행자에 주의하세요!’와 같은 음성안내가 수행되도록 할 수 있음을 의미한다.
제1 제어부(170)는 제6 오브젝트(OB6)인 보행자에게도 경고를 수행할 수 있다. 예를 들어, 전조등을 깜빡이거나 경적을 울릴 수 있음을 의미한다.
도 12에 도시한 바와 같이, 차량은 이면도로 구간(도 8의 B)에 위치하고 있을 수 있다. 차량이 이면도로 구간(도 8의 B)에 위치하는 경우에, 제1 제어부(170)는 보행자인 제7 오브젝트(OB7)에 대한 감시 수위를 정차한 차량인 제8 오브젝트(OB8) 보다 높일 수 있다. 예를 들어, 제7 오브젝트(OB7)에 대해서는 1초에 2번 영상분석을 수행하지만, 제8 오브젝트(OB8)에 대해서는 1초에 1번 영상분석을 수행하는 경우가 가능할 수 있음을 의미한다.
제7 오브젝트(OB7)에 대한 감시 결과, 차량의 운행에 방해, 위험요소라고 판단하면, 제1 제어부(170)는 제1,2 인디케이터(I1, I2)를 제7 오브제트(OB7)에 표시하고 음성으로 경고할 수 있다. 또한, 차량의 전조등 및 경적을 사용하여 제7 오브젝트(OB7)인 보행자에 대한 경고를 수행할 수 있다.
도 12는 차량의 위치에 따른 감지 우선순위를 도시한 표이고, 도 13은 감지 우선순위에 따른 발견가능성을 도시한 도면이다.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 내비게이션 시스템(10)은 도로의 종류에 따른 우선순위 및 그에 따른 감지결과를 도시한 도면이다.
도 12에 도시한 바와 같이, 이면도로에서는 사람, 같은 방향의 차량, 반대 방향의 차량 순으로 우선순위를 부여할 수 있다. 즉, 감지된 오브젝트가 사람인 경우에 이에 가장 우선순위를 부여하여 위치, 움직임 등을 판단하고, 반대 방향의 차량은 가장 낮은 우선순위를 부여할 수 있다. 간선도로에서는 같은 방향의 차량에 가장 높은 우선순위를 부여하고, 사람에 대해서 낮은 우선순위를 부여할 수 있다. 또한, 고속도로에서는 같은 방향의 차량에 대해서만 시스템의 리소스를 집중하여 그 움직임 등을 감지할 수 있다.
각 도로에서의 우선순위는, 그 도로의 특성을 반영하여 결정될 수 있다. 즉, 이면도로는 보행자가 많다는 점을 고려하여 사람에 대한 우선순위를 높게 할 수 있으며, 고속도로에서는 보행자가 없으며 반대 방향 차량과는 중앙분리대에 의하여 공간적으로 분리된다는 점을 고려하여 결정될 수 있다.
우선순위는, 도 12에 도시한 경우 외에 다음과 같은 다양한 기준에 근거하여 결정될 수 있다.
주간과 야간에 각 다르게 우선순위가 결정될 수 있다. 야간의 경우에, 차량은 전조등 등 각종 등화가 점등되어 그 존재를 쉽게 인식할 수 있지만, 사람의 경우에는 잘 보이지 않을 수 있다. 따라서 야간에는 차량보다 사람의 우선순위가 높게 설정할 수 있다. 또한, 야간에는 적외선 카메라 등을 사용하여 식별력을 높일 수 있다.
날씨에 따라 우선순위가 결정될 수 있다. 날씨가 맑은 경우보다 눈 또는 비가 오는 경우에 사람에 대한 우선순위를 높게 설정할 수 있다.
속도에 따라 우선순위가 결정될 수 있다. 즉, 빠른 속도로 움직이는 경우에는 차량의 우선순위를 높게 설정하고, 느린 속도로 움직이는 경우에는 사람의 우선순위를 높게 설정할 수 있다.
도 13에 도시한 바와 같이, 우선순위와 발견가능성은 서로 비례하는 결과를 도출할 수 있다. 도 13의 세로축은 특정 종류의 오브젝트에 부여된 우선순위이고, 가로축은 빈도(頻度)이다.
오브젝트의 우선순위에 관계없이, 동일한 빈도로 감지할 수 있다. 이와 같은 경우에, 세로축과 나란한 그래프가 그려진다. 이와 같은 경우에는, 시스템의 리소스를 효과적으로 사용할 수 없을 수 있다. 예를 들어, 자동차 전용도로에서도 멀리 찍혀 있는 사람의 움직임을 감지하여 정작 중요한 차량의 움직임에 대한 감지가 늦을 수 있음을 의미한다.
오브젝트의 우선순위에 따라 서로 다른 빈도로 감지할 수 있다. 이와 같은 경우에, 기울어진 직선형태로 그래프가 그려진다. 감지 빈도가 증가하면, 그 오브젝트의 이동 방향, 속도 등을 보다 정확하게 알 수 있다. 차량의 현재 위치에 기준하여, 중요성 있는 오브젝트를 보다 면밀하게 감지하므로 사고 가능성을 줄일 수 있다.
본 발명의 실시 예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체(media)를 포함한다. 이 매체는 지금까지 설명한 경로 안내 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드 디스크(hard disk), 플로피 디스크(floppy disk) 및 자기 테이프(magnetic tape)와 같은 자기 매체(magnetic media), CD 및 DVD와 같은 광 기록 매체(optical recording media), 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다.
본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.
10 : 내비게이션 시스템 20 : 인공위성
30 : 네트워크 40 : 제어국
50 : 기지국 100 : 차량용 내비게이션

Claims (21)

  1. 영상을 촬영하는 카메라;
    차량의 현재 위치와 속도 정보를 획득하는 위치 데이터 모듈;및
    상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고,
    상기 추출된 적어도 하나의 오브젝트의 윤곽을 식별하거나 상기 추출된 적어도 하나의 오브젝트가 차지하고 있는 면적의 형상에 기초하여 상기 오브젝트의 종류를 판단하며,
    상기 판단된 오브젝트의 종류를 기초로 상기 오브젝트가 상기 차량의 현재 위치에서 중점적으로 감지해야 할 대상에 속하는지 여부를 판단하고,
    상기 감지 대상에 속하는지 여부에 따라 상기 차량의 현재 위치 또는 속도 정보에 따른 상기 오브젝트와의 간섭 가능성을 포함하는 오브젝트 관련정보를 출력하는 제어부를 포함하는 전자기기.
  2. 제1 항에 있어서,
    상기 제어부는 상기 현재 위치 또는 속도 정보에 따른 우선순위를 토대로 상기 오브젝트 관련정보를 출력하되,
    상기 우선순위는 상기 추출한 오브젝트의 위치 또는 이동방향에 따라 결정되는 전자기기.
  3. 제1 항에 있어서,
    상기 제어부는,
    차량과 상기 오브젝트에 대응된 실재물(entity, 實在物)의 간섭이 예상되는 경우 선택적으로 상기 오브젝트 관련정보를 출력하는 전자기기.
  4. 제2 항에 있어서,
    상기 제어부는,
    상기 영상을 표시하는 디스플레이 모듈 또는 소리를 출력하는 오디오 출력 모듈 중 적어도 어느 하나로 상기 오브젝트 관련정보를 출력하는 전자기기.
  5. 제1 항에 있어서,
    상기 제어부는,
    상기 추출한 오브젝트의 위치, 상기 추출한 오브젝트의 이동방향 중 적어도 하나를 지시하는 인디케이터(indicator)를 디스플레이 모듈에 표시하는 전자기기.
  6. 영상을 촬영하는 단계;
    차량의 현재 위치와 속도 정보를 획득하는 단계;
    상기 영상에 포함된 적어도 하나의 오브젝트를 추출하는 단계;
    상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고,
    상기 추출된 적어도 하나의 오브젝트의 윤곽을 식별하거나 상기 추출된 적어도 하나의 오브젝트가 차지하고 있는 면적의 형상에 기초하여 상기 오브젝트의 종류를 판단하는 단계;
    상기 판단된 오브젝트의 종류를 기초로 상기 오브젝트가 상기 차량의 현재 위치에서 중점적으로 감지해야 할 감지 대상에 속하는지 여부를 판단하는 단계; 및
    상기 감지 대상에 속하는지 여부에 따라 상기 차량의 현재 위치 또는 속도 정보에 따른 상기 오브젝트와의 간섭 가능성을 포함하는 오브젝트 관련정보를 출력하는 단계를 포함하는 전자기기의 제어방법.
  7. 제6 항에 있어서,
    상기 출력하는 단계는,
    상기 추출한 오브젝트의 위치, 상기 추출한 오브젝트의 이동방향 중 적어도 하나를 지시하는 인디케이터(indicator)를 표시하는 단계를 포함하는 전자기기의 제어방법.
  8. 제6 항 및 제7 항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
  9. 영상을 촬영하는 카메라;
    차량의 현재 위치와 속도 정보를 획득하는 위치 데이터 모듈;및
    상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고,
    상기 추출된 적어도 하나의 오브젝트의 윤곽을 식별하거나 상기 추출된 적어도 하나의 오브젝트가 차지하고 있는 면적의 형상에 기초하여 상기 오브젝트의 종류를 판단하며,
    상기 판단된 오브젝트의 종류를 기초로 상기 오브젝트가 상기 차량의 현재 위치에서 중점적으로 감지해야 할 감지 대상에 속하는지 여부를 판단하고,
    상기 감지 대상에 속하는지 여부에 따라 상기 차량과 상기 오브젝트와의 충돌 가능성에 따른 우선순위를 토대로, 상기 추출한 적어도 하나의 오브젝트 관련정보를 출력하는 제어부를 포함하고,
    상기 우선순위는,
    상기 추출한 오브젝트의 위치 또는 이동방향에 따른 상치 차량의 충돌 가능성에 비례하는 전자기기.
  10. 영상을 촬영하는 카메라;
    차량의 현재 위치와 속도 정보를 획득하는 위치 데이터 모듈;및
    상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고,
    상기 추출된 적어도 하나의 오브젝트의 윤곽을 식별하거나 상기 추출된 적어도 하나의 오브젝트가 차지하고 있는 면적의 형상에 기초하여 상기 오브젝트의 종류를 판단하며,
    상기 판단된 오브젝트의 종류를 기초로 상기 오브젝트가 상기 차량의 현재 위치에서 중점적으로 감지해야 할 감지 대상에 속하는지 여부를 판단하고,
    상기 감지 대상에 속하는지 여부에 따라 상기 획득된 차량의 위치와 상기 추출된 오브젝트와의 관련성에 따른 우선순위를 토대로, 상기 추출한 적어도 하나의 오브젝트 관련정보를 출력하는 제어부를 포함하고,
    상기 우선순위는,
    상기 차량의 현재 위치와 상기 추출한 오브젝트의 위치와의 거리에 반비례하는 전자기기.
  11. 영상을 촬영하는 카메라;
    차량의 현재 위치와 속도 정보를 획득하는 위치 데이터 모듈;및
    상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고,
    상기 추출된 적어도 하나의 오브젝트의 윤곽을 식별하거나 상기 추출된 적어도 하나의 오브젝트가 차지하고 있는 면적의 형상에 기초하여 상기 오브젝트의 종류를 판단하며,
    상기 판단된 오브젝트의 종류를 기초로 상기 오브젝트가 상기 차량의 현재 위치에서 중점적으로 감지해야 할 감지 대상에 속하는지 여부를 판단하며,
    상기 감지 대상에 속하는지 여부에 따라 상기 추출된 오브젝트와 차량의 이동 방향의 연관성에 따른, 오브젝트 관련정보를 출력하는 제어부를 포함하는 전자기기
  12. 영상을 촬영하는 카메라;
    차량의 현재 위치와 속도 정보를 획득하는 위치 데이터 모듈;및
    상기 영상에 포함된 적어도 하나의 오브젝트를 추출하고,
    상기 추출된 적어도 하나의 오브젝트의 윤곽을 식별하거나 상기 추출된 적어도 하나의 오브젝트가 차지하고 있는 면적의 형상에 기초하여 상기 오브젝트의 종류를 판단하며,
    상기 판단된 오브젝트의 종류를 기초로 상기 오브젝트가 상기 차량의 현재 위치에서 중점적으로 감지해야 할 감지 대상에 속하는지 여부를 판단하고,
    상기 감지 대상에 속하는지 여부에 따라 상기 획득된 상기 현재 위치와 속도 정보를 고려하여, 상기 오브젝트와 상기 차량 간의 충돌 가능성에 대한 정보를 출력하는 제어부를 포함하는 전자기기.
  13. 제12항에 있어서,
    상기 제어부는,
    상기 추출된 오브젝트의 종류를 식별하며,
    상기 식별된 오브젝트의 종류는 사람 또는 차량 중 어느 하나임을 특징으로 하는 전자기기.
  14. 제12항에 있어서,
    상기 제어부는,
    상기 획득된 차량의 위치와 상기 추출된 오브젝트의 종류에 따른 감지 대상의 순위를 결정함을 특징으로 하는 전자기기.
  15. 제12항에 있어서,
    상기 제어부는,
    상기 추출된 오브젝트가 상기 차량의 진행 경로 상에 위치하는 경우, 상기 추출된 오브젝트와의 충돌 가능성을 판단함을 특징으로 하는 전자기기.
  16. 제12항에 있어서,
    상기 제어부는,
    상기 오브젝트가 검출되면,
    상기 오브젝트와 상기 차량의 충돌을 방지하도록 상기 차량의 움직임을 제어함을 특징으로 하는 전자기기.
  17. 제12항에 있어서,
    상기 제어부는,
    상기 차량의 위치에 따라 상기 추출된 오브젝트에 대한 감지 우선순위를 설정함을 특징으로 하는 전자기기.
  18. 제12항에 있어서,
    상기 제어부는,
    상기 차량의 위치의 맵 정보에 기초하여 오브젝트 관련정보를 출력함을 특징으로 하는 전자기기.
  19. 제18항에 있어서,
    상기 오브젝트 관련 정보는,
    상기 차량과 상기 오브젝트의 충돌 가능성에 대한 정보임을 특징으로 하는 전자기기.
  20. 제13항에 있어서,
    상기 제어부는,
    상기 오브젝트의 종류를 식별하면,
    상기 식별된 오브젝트가 상기 차량의 현재 위치에서 감시 대상에 포함되는지를 판단하는 전자기기.
  21. 제20항에 있어서,
    상기 감시 대상은,
    상기 오브젝트의 위치, 속도 및 운동방향 중 적어도 하나를 이용하여 결정됨을 특징으로 하는 전자기기.
KR1020170017499A 2017-02-08 2017-02-08 전자 기기 및 그 제어방법 KR101833298B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170017499A KR101833298B1 (ko) 2017-02-08 2017-02-08 전자 기기 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170017499A KR101833298B1 (ko) 2017-02-08 2017-02-08 전자 기기 및 그 제어방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020110001686A Division KR101736741B1 (ko) 2011-01-07 2011-01-07 전자 기기 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20170017987A KR20170017987A (ko) 2017-02-15
KR101833298B1 true KR101833298B1 (ko) 2018-04-13

Family

ID=58112107

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170017499A KR101833298B1 (ko) 2017-02-08 2017-02-08 전자 기기 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR101833298B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251257A (ja) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd 画像認識装置、車両制御装置、画像認識方法および車両制御方法
JP2009151566A (ja) * 2007-12-20 2009-07-09 Toyota Motor Corp 車両用表示装置
JP2009292296A (ja) * 2008-06-04 2009-12-17 Toyota Motor Corp 車載表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251257A (ja) * 2006-03-13 2007-09-27 Fujitsu Ten Ltd 画像認識装置、車両制御装置、画像認識方法および車両制御方法
JP2009151566A (ja) * 2007-12-20 2009-07-09 Toyota Motor Corp 車両用表示装置
JP2009292296A (ja) * 2008-06-04 2009-12-17 Toyota Motor Corp 車載表示システム

Also Published As

Publication number Publication date
KR20170017987A (ko) 2017-02-15

Similar Documents

Publication Publication Date Title
JP4624594B2 (ja) 物体認識方法および物体認識装置
CN111284487B (zh) 车道线显示方法以及执行该方法的电子设备
JP2001233150A (ja) 車両用危険判断装置及び、車両用周辺監視装置
JP6323074B2 (ja) 表示物情報表示装置
KR20050114916A (ko) 교통정보수집과 부가기능을 갖는 네트워크 카메라 장치 및그 교통정보 처리방법
CN102951149A (zh) 一种用于分析车辆将行驶的道路分段的方法及装置
US20120303215A1 (en) Apparatus and method for controlling video recording in black box for vehicle
CN105283776A (zh) 雷达假警报的减少
KR101759975B1 (ko) 전자 기기 및 전자 기기의 차선 이탈 경보 방법
JP2008097279A (ja) 車両外部情報表示装置
JP2001289938A (ja) マイクロ波検出器
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
KR102418051B1 (ko) 차선별 교통상황 판단 장치, 시스템, 및 방법
JP2011100409A (ja) 車載用電子機器及びプログラム
JP2008046766A (ja) 車両外部情報表示装置
KR101736741B1 (ko) 전자 기기 및 그 제어방법
KR101833298B1 (ko) 전자 기기 및 그 제어방법
KR101818956B1 (ko) 차선 변경 정보를 제공하는 전자기기 방법 및 기록매체
KR101912853B1 (ko) 전자 기기 및 전자 기기의 차선 안내 방법
KR101906430B1 (ko) 전자 기기 및 전자 기기의 차선 이탈 경보 방법
JP2017126213A (ja) 交差点状況確認システム、撮像装置、車載装置、交差点状況確認プログラムおよび交差点状況確認方法
KR101572478B1 (ko) 지능형 차량용 블랙박스 시스템 및 그 제공방법
KR20180123553A (ko) 이동체 주위 표시 방법 및 이동체 주위 표시 장치
KR20180111746A (ko) 전자 기기 및 전자 기기의 차선 이탈 경보 방법
KR102091017B1 (ko) 전자 기기 및 상기 전자 기기의 영상 촬영 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant