KR102383425B1 - Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium - Google Patents

Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium Download PDF

Info

Publication number
KR102383425B1
KR102383425B1 KR1020150035744A KR20150035744A KR102383425B1 KR 102383425 B1 KR102383425 B1 KR 102383425B1 KR 1020150035744 A KR1020150035744 A KR 1020150035744A KR 20150035744 A KR20150035744 A KR 20150035744A KR 102383425 B1 KR102383425 B1 KR 102383425B1
Authority
KR
South Korea
Prior art keywords
vehicle
crosswalk
electronic device
image data
camera
Prior art date
Application number
KR1020150035744A
Other languages
Korean (ko)
Other versions
KR20160065722A (en
Inventor
조호형
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to CN201510867498.6A priority Critical patent/CN105654778B/en
Priority to CN201811590078.8A priority patent/CN110091798B/en
Priority to US14/955,762 priority patent/US9846969B2/en
Priority to CN202010541932.2A priority patent/CN111710189B/en
Priority to CN202010541922.9A priority patent/CN111681455B/en
Publication of KR20160065722A publication Critical patent/KR20160065722A/en
Priority to US15/814,150 priority patent/US10497178B2/en
Priority to US16/670,014 priority patent/US11030816B2/en
Application granted granted Critical
Publication of KR102383425B1 publication Critical patent/KR102383425B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

전자 장치의 제어 방법이 개시된다. 본 제어 방법은, 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하는 단계, 검출된 횡단 보도를 나타내는 객체를 생성하는 단계 및 생성된 객체를 증강 현실을 통해 출력하는 단계를 포함한다.A method of controlling an electronic device is disclosed. The control method includes detecting a crosswalk from image data captured by a camera while driving a vehicle, generating an object representing the detected crosswalk, and outputting the generated object through augmented reality.

Description

전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체{ELECTRONIC APPARATUS, CONTROL METHOD OF ELECTRONIC APPARATUS, COMPUTER PROGRAM AND COMPUTER READABLE RECORDING MEDIUM}Electronic devices, control methods for electronic devices, computer programs, and computer-readable recording media

본 발명은 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는 증강 현실 상에서 사용자에게 운전 관련 안내를 수행하는 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to an electronic device, a method for controlling an electronic device, a computer program, and a computer-readable recording medium, and more particularly, to an electronic device for providing driving-related guidance to a user in augmented reality, a method for controlling an electronic device, and a computer program and to a computer-readable recording medium.

차량의 주행 시 가장 중요한 것은 안전 주행 및 교통 사고의 예방이며, 이를 위해 차량의 자세 제어, 차량 구성장치들의 기능 제어 등을 수행하는 다양한 보조장치 및 안전 벨트, 에어백 등의 안전장치가 차량에 장착되어 있다.The most important thing when driving a vehicle is safe driving and prevention of traffic accidents. there is.

뿐만 아니라, 최근에는 블랙박스 등과 같이 차량에 위치하여 차량의 주행 영상 및 각종 센서들로부터 전송되는 데이터를 저장함으로써, 차량이 사고 발생시 차량의 사고 원인을 규명하는 장치들도 차량에 구비되는 추세이다. 스마트폰, 태블릿과 같은 휴대용 단말기들도 블랙박스 또는 네비게이션 어플리케이션 등이 탑재 가능하여 이와 같은 차량용 장치로 활용되고 있는 실정이다.In addition, recently, devices such as a black box are located in a vehicle to store driving images of the vehicle and data transmitted from various sensors, thereby identifying the cause of the vehicle accident when the vehicle is in an accident. Portable terminals such as smartphones and tablets can also be equipped with a black box or a navigation application, and thus are being used as such vehicle devices.

그러나, 현재 이와 같은 차량용 장치들에서의 주행 영상 활용도는 낮은 실정이다. 보다 구체적으로 현재 차량에 장착된 카메라와 같은 비젼 센서를 통해 차량의 주행 영상을 획득하더라도 차량의 전자 장치는 이를 단순히 표시, 전송하거나, 차선 이탈 여부 등과 같은 간단한 주변 알림 정보만을 생성하는데 그치고 있다.However, the current utilization of driving images in such vehicle devices is low. More specifically, even when a driving image of a vehicle is acquired through a vision sensor such as a camera currently mounted on the vehicle, the electronic device of the vehicle simply displays and transmits it, or generates only simple surrounding notification information such as lane departure.

또한, 현재 새로이 대두되는 차량의 전자 장치로서 HUD(Head Up Display)나, 증강 현실 인터페이스도 제안되고 있으나 여기에서도 차량의 주행 영상의 활용도는 단순 디스플레이 또는 간단한 알림 정보 생성에 그치고 있다.In addition, although a head-up display (HUD) or an augmented reality interface has been proposed as an electronic device for a vehicle that is newly emerging, the utilization of the driving image of the vehicle is limited to a simple display or simple notification information generation here.

본 발명의 상술한 필요성에 따라 안출된 것으로, 본 발명의 목적은 도로 주행 중 차량이 교차로에 정차한 경우 등의 상황에 횡단 보도를 나타내는 객체를 생성하여 증강 현실을 통하여 출력하는 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.The present invention has been devised in accordance with the above-mentioned necessity of the present invention, and an object of the present invention is to generate an object representing a crosswalk in a situation such as when a vehicle stops at an intersection while driving on a road, and output the object through augmented reality. To provide a control method, a computer program, and a computer-readable recording medium.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하는 단계, 상기 검출된 횡단 보도를 나타내는 객체를 생성하는 단계 및 상기 생성된 객체를 증강 현실을 통해 출력하는 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present invention for achieving the above object includes detecting a crosswalk from image data captured by a camera while driving a vehicle, and generating an object representing the detected crosswalk and outputting the generated object through augmented reality.

그리고, 상기 차량의 정차 상태 여부를 판단하는 단계를 더 포함하고, 상기 생성하는 단계는, 상기 차량이 정차 상태로 판단되면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성할 수 있다.And, further comprising the step of determining whether the vehicle is in a stopped state, wherein the generating is a first object for recognizing that the crosswalk is located in front of the vehicle when it is determined that the vehicle is in a stopped state can create

또한, 상기 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단하는 단계를 더 포함하고, 상기 생성하는 단계는, 상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태를 유지하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하고, 상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 출발하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 경고하기 위한 제2 객체를 생성할 수 있다.The method may further include determining signal type information by using image data of a signal region portion of a traffic light among the image data, wherein the generating may include a state in which the vehicle is stopped in a state in which the signal type information is a stop signal. maintain, create a first object for recognizing that the crosswalk is located in front of the vehicle, and when the vehicle starts in a state where the signal type information is a stop signal, the crosswalk is located in front of the vehicle You can create a second object for warning that it is located in .

그리고, 상기 제1, 제2 객체를 서로 상이한 색깔로 구별될 수 있다.In addition, the first and second objects may be distinguished by different colors.

또한, 상기 제1, 제2 객체는 색의 투명도에 관련된 알파 채널을 포함하는 형태로 구현되고, 상기 알파 채널에 따라 상기 제1, 제2 객체는 투명 영역을 포함할 수 있다.In addition, the first and second objects may be implemented in a form including an alpha channel related to color transparency, and the first and second objects may include a transparent region according to the alpha channel.

그리고, 상기 촬영된 영상 데이터를 이용하여 상기 횡단 보도에 보행자의 존재 여부를 판단하는 단계 및 상기 보행자의 존재 여부를 나타내는 객체를 생성하는 단계를 더 포함할 수 있다.The method may further include determining whether a pedestrian exists in the crosswalk using the captured image data and generating an object indicating whether the pedestrian exists.

또한, 상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량의 전방 차량이 출발하는 경우, 전방 차량 출발 안내를 수행하지 않도록 제어하는 단계를 더 포함할 수 있다.In addition, when the vehicle in front of the vehicle starts in a state in which a pedestrian is present in the crosswalk, the method may further include controlling not to perform a departure guidance of the vehicle ahead.

그리고, 상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량이 출발하는 경우, 상기 횡단 보도에 보행자가 존재함을 경고하기 위한 안내를 수행하도록 제어하는 단계를 더 포함할 수 있다.And, when the vehicle starts in a state in which a pedestrian is present in the crosswalk, the method may further include controlling to perform a guide to warn that a pedestrian is present in the crosswalk.

또한, 상기 제1, 제2객체의 표출 위치는, 상기 증강 현실에서 횡단 보도가 위치하는 영역일 수 있다.In addition, the display position of the first and second objects may be an area where a crosswalk is located in the augmented reality.

그리고, 상기 출력하는 단계는, 카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출하는 단계, 상기 카메라 파라미터를 기초로 상기 카메라의 촬영 영상에 대한 가상 3D(3-Dimensional) 공간을 생성하는 단계 및 상기 가상 3D 공간에 상기 생성된 객체를 위치시키는 단계를 포함할 수 있다.In addition, the outputting step may include calculating a camera parameter by performing calibration on the camera, and generating a virtual 3D (3-dimensional) space for the captured image of the camera based on the camera parameter. and locating the created object in the virtual 3D space.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 화면을 표시하는 디스플레이부, 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도가 검출되면, 상기 검출된 횡단 보도를 나타내는 객체를 생성하는 객체 생성부 및 상기 생성된 객체를 증강 현실을 통해 출력하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.On the other hand, in an electronic device according to an embodiment of the present invention for achieving the above object, when a crosswalk is detected from image data captured by a display unit for displaying a screen and a camera while driving a vehicle, the detected crosswalk and an object generating unit generating an object representing

그리고, 상기 제어부는, 상기 차량의 정차 상태 여부를 판단하고, 상기 차량이 정차 상태로 판단되면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하도록 상기 객체 생성부를 제어할 수 있다.Then, the control unit determines whether the vehicle is in a stopped state, and when the vehicle is determined to be in a stopped state, the object generating unit is configured to generate a first object for recognizing that the crosswalk is located in front of the vehicle. can be controlled

또한, 상기 제어부는, 상기 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단하고, 상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태를 유지하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하고, 상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 출발하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 경고하기 위한 제2 객체를 생성하도록 상기 객체 생성부를 제어할 수 있다.In addition, the control unit determines the signal type information by using the image data of the signal area portion of the traffic light among the image data, and when the vehicle maintains a stopped state in a state in which the signal type information is a stop signal, the crosswalk Creates a first object for recognizing that is located in front of the vehicle, and when the vehicle starts in a state where the signal type information is a stop signal, for warning that the crosswalk is located in front of the vehicle The object generator may be controlled to create a second object.

그리고, 상기 제1, 제2 객체를 서로 상이한 색깔로 구별될 수 있다.In addition, the first and second objects may be distinguished by different colors.

또한, 상기 제1, 제2 객체는 색의 투명도에 관련된 알파 채널을 포함하는 형태로 구현되고, 상기 알파 채널에 따라 상기 제1, 제2 객체는 투명 영역을 포함할 수 있다.In addition, the first and second objects may be implemented in a form including an alpha channel related to color transparency, and the first and second objects may include a transparent region according to the alpha channel.

그리고, 상기 제어부는, 상기 촬영된 영상 데이터를 이용하여 상기 횡단 보도에 보행자의 존재 여부를 판단하고, 상기 보행자의 존재 여부를 나타내는 객체를 생성하도록 상기 객체 생성부를 제어할 수 있다.In addition, the controller may control the object generator to determine whether a pedestrian exists in the crosswalk by using the captured image data, and to generate an object indicating the presence of the pedestrian.

또한, 상기 제어부는, 상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량의 전방 차량이 출발하는 경우, 전방 차량 출발 안내를 수행하지 않도록 제어할 수 있다.In addition, the controller may control not to perform the forward vehicle departure guidance when the vehicle in front of the vehicle starts in a state where a pedestrian is present in the crosswalk.

그리고, 상기 제어부는, 상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량이 출발하는 경우, 상기 횡단 보도에 보행자가 존재함을 경고하기 위한 안내를 수행하도록 제어하는 단계를 더 포함할 수 있다.And, the control unit, when the vehicle starts in a state in which the pedestrian is present in the crosswalk, the step of controlling to perform a guide to warn the presence of the pedestrian in the crosswalk may further include.

또한, 상기 제1, 제2객체의 표출 위치는, 상기 증강 현실에서 횡단 보도가 위치하는 영역일 수 있다.In addition, the display position of the first and second objects may be an area where a crosswalk is located in the augmented reality.

그리고, 상기 제어부는, 카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출하고, 상기 카메라 파라미터를 기초로 상기 카메라의 촬영 영상에 대한 가상 3D(3-Dimensional) 공간을 생성하며, 상기 가상 3D 공간에 상기 생성된 객체를 위치시키도록 제어할 수 있다.In addition, the controller calculates a camera parameter by performing calibration on the camera, and generates a virtual 3D (3-dimensional) space for the captured image of the camera based on the camera parameter, and the virtual 3D It is possible to control to position the created object in space.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 기록 매체에 저장된 컴퓨터 프로그램은, 전자 장치와 결합되어, 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하는 단계, 상기 검출된 횡단 보도를 나타내는 객체를 생성하는 단계 및 상기 생성된 객체를 증강 현실을 통해 출력하는 단계를 실행시킬 수 있다.On the other hand, the computer program stored in the recording medium according to an embodiment of the present invention for achieving the above object is combined with an electronic device, the step of detecting a crosswalk from image data captured by a camera while the vehicle is driving, the The steps of generating an object representing the detected crosswalk and outputting the generated object through augmented reality may be executed.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체에 있어서, 상기 제어 방법은, 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하는 단계, 상기 검출된 횡단 보도를 나타내는 객체를 생성하는 단계 및 상기 생성된 객체를 증강 현실을 통해 출력하는 단계를 포함할 수 있다. Meanwhile, in a computer-readable recording medium storing a computer program for executing a control method of an electronic device according to an embodiment of the present invention for achieving the above object, the control method is captured by a camera while driving a vehicle It may include detecting a crosswalk from the image data, generating an object representing the detected crosswalk, and outputting the generated object through augmented reality.

상술한 본 발명의 다양한 실시 예에 따르면, 횡단 보도가 있는 구간에서 안내 정보를 증강 현실 기법으로 다이나믹하게 표출함으로써, 운전자에게 효과적인 안내와 흥미를 유발시킴과 동시에 차량에 대한 운전자의 안전 운전 및 편의성을 도모할 수 있다.According to various embodiments of the present invention described above, by dynamically expressing guidance information in an augmented reality technique in a section with a crosswalk, effective guidance and interest are induced to the driver, and at the same time, the driver's safe driving and convenience for the vehicle are improved. can be promoted

또한, 상술한 본 발명의 다양한 실시 예에 따르면, 횡단 보도에 보행자의 존재 여부에 따라 관련된 안내를 수행함으로써, 운전자의 안전 운전 및 편의성을 도모할 수 있다.In addition, according to various embodiments of the present disclosure described above, it is possible to promote safe driving and convenience of the driver by performing related guidance according to the presence or absence of pedestrians in the crosswalk.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 증강 현실 제공부를 구체적으로 나타내는 블록도 이다.
도 3은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 개략적으로 나타내는 흐름도 이다.
도 5는 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다.
도 6은 본 발명의 다른 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다.
도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다.
도 8은 본 발명의 일 실시 예에 따른 횡단 보도 객체를 표출하는 증강 현실 화면을 나타내는 도면이다.
도 9는 본 발명의 일 실시 예에 따른 횡단 보도 객체의 텍스처 이미지를 나타내는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 보행자의 알림 객체를 표출하는 증강 현실 화면을 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 분리형이 경우 구현 형태를 나타내는 도면이다.
도 12는 본 발명의 일 실시 예에 따른 카메라와 전자 장치가 일체형인 경우 구현 형태를 나타내는 도면이다.
도 13은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display) 및 전자 장치를 이용한 구현 형태를 나타내는 도면이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present invention.
2 is a block diagram specifically illustrating an augmented reality providing unit according to an embodiment of the present invention.
3 is a diagram for explaining a system network connected to an electronic device according to an embodiment of the present invention.
4 is a flowchart schematically illustrating a method for controlling an electronic device according to an embodiment of the present invention.
5 is a flowchart specifically illustrating a method for controlling an electronic device according to an embodiment of the present invention.
6 is a flowchart specifically illustrating a method of controlling an electronic device according to another embodiment of the present invention.
7 is a flowchart specifically illustrating a method of controlling an electronic device according to another embodiment of the present invention.
8 is a diagram illustrating an augmented reality screen displaying a crosswalk object according to an embodiment of the present invention.
9 is a diagram illustrating a texture image of a crosswalk object according to an embodiment of the present invention.
10 is a diagram illustrating an augmented reality screen displaying a notification object of a pedestrian according to an embodiment of the present invention.
11 is a diagram illustrating an implementation form when a camera and an electronic device are separated according to an embodiment of the present invention.
12 is a diagram illustrating an implementation form when a camera and an electronic device are integrated according to an embodiment of the present invention.
13 is a diagram illustrating an implementation form using a head-up display (HUD) and an electronic device according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art will be able to devise various devices that, although not explicitly described or shown herein, embody the principles of the present invention and are included within the spirit and scope of the present invention. In addition, all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the concept of the present invention, and it should be understood that they are not limited to the specifically enumerated embodiments and states as such. do.

또한, 본 발명의 원리, 관점 및 실시 예들 뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Moreover, it is to be understood that all detailed description reciting specific embodiments, as well as principles, aspects, and embodiments of the invention, are intended to include structural and functional equivalents of such matters. It should also be understood that such equivalents include not only currently known equivalents, but also equivalents developed in the future, i.e., all devices invented to perform the same function, regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of illustrative circuitry embodying the principles of the present invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc. may be tangibly embodied on computer-readable media and be understood to represent various processes performed by a computer or processor, whether or not a computer or processor is explicitly shown. should be

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures including a processor or functional blocks represented by similar concepts may be provided by the use of dedicated hardware as well as hardware having the ability to execute software in association with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of separate processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the clear use of terms presented as processor, control, or similar concepts should not be construed as exclusively referring to hardware having the ability to execute software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM (RAM) and non-volatile memory. Other common hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of the present specification, a component expressed as a means for performing the function described in the detailed description includes, for example, a combination of circuit elements that perform the function or software in any form including firmware/microcode, etc. It is intended to include all methods of performing the functions of the device, coupled with suitable circuitry for executing the software to perform the functions. Since the present invention defined by these claims is combined with the functions provided by the various enumerated means and in a manner required by the claims, any means capable of providing the functions are equivalent to those contemplated from the present specification. should be understood as

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in the description of the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 전자 장치를 나타내는 블록도 이다. 도 1을 참조하면, 전자 장치(100)는 저장부(110), 입력부(120), 출력부(130), 횡단 보도 검출부(140), 신호 종류 정보 판단부(150), 운행 상태 판단부(155), 증강 현실 제공부(160), 제어부(170), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 포함한다.1 is a block diagram illustrating an electronic device according to an embodiment of the present invention. Referring to FIG. 1 , the electronic device 100 includes a storage unit 110 , an input unit 120 , an output unit 130 , a crosswalk detection unit 140 , a signal type information determination unit 150 , and a driving state determination unit ( 155 ), the augmented reality providing unit 160 , the control unit 170 , the communication unit 180 , the sensing unit 190 , and all or a part of the power supply unit 195 .

여기서, 전자 장치(100)는 운행 상태에 있는 차량의 운전자에게 운전 관련 안내를 제공할 수 있는 스마트 폰, 태블릿 컴퓨터, 노트북 컴퓨터, PDA(personal digital assistant), PMP(portable multimedia player), 스마트 글래스, 프로젝트 글래스, 내비게이션(navigation), 블랙 박스(Black-box) 등과 같은 다양한 장치로 구현될 수 있고, 차량에 구비될 수 있다.Here, the electronic device 100 includes a smart phone, a tablet computer, a notebook computer, a personal digital assistant (PDA), a portable multimedia player (PMP), smart glasses, which can provide driving-related guidance to a driver of a vehicle in a driving state; It may be implemented in various devices such as project glasses, navigation, black-box, and the like, and may be provided in a vehicle.

여기서, 차량의 운행 상태는, 차량의 정차 상태, 차량의 주행 상태, 차량의 주차 상태 등과 같이 차량이 운전자에 의하여 운전되고 있는 다양한 상태를 포함할 수 있다. Here, the driving state of the vehicle may include various states in which the vehicle is being driven by the driver, such as a stopped state of the vehicle, a running state of the vehicle, and a parking state of the vehicle.

운전 관련 안내는 경로 안내, 차선 이탈 안내, 전방 차량 출발 안내, 신호등 변경 안내, 전방 차량 추돌 방지 안내, 차로 변경 안내, 차로 안내 등과 같이 차량 운전자의 운전을 보조하기 위한 다양한 안내를 포함할 수 있다. The driving-related guidance may include various guidance for assisting the driver in driving, such as route guidance, lane departure guidance, forward vehicle departure guidance, traffic light change guidance, forward collision avoidance guidance, lane change guidance, lane guidance, and the like.

여기서, 경로 안내는, 운행 중인 차량의 전방을 촬영한 영상에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 증강 현실 경로 안내, 및 2D(2-Dimensional) 또는 3D(3-Dimensional)의 지도 데이터에 사용자의 위치, 방향 등과 같은 각종 정보를 결합하여 경로 안내를 수행하는 2D(2-Dimensional) 또는 3D(3-Dimensional) 경로 안내를 포함할 수 있다. 여기서, 경로 안내는, 사용자가 차량에 탑승하여 운전하는 경우 뿐만 아니라, 사용자가 걷거나 뛰어서 이동하는 경우의 경로 안내도 포함하는 개념으로 해석될 수 있다. Here, the route guidance includes augmented reality route guidance that performs route guidance by combining various information such as the location and direction of the user with an image taken in front of the vehicle in motion, and 2D (2-Dimensional) or 3D (3-D) 2D (2-Dimensional) or 3D (3-Dimensional) route guidance for performing route guidance by combining various types of information such as a user's location and direction with map data of Dimensional) may be included. Here, the route guidance may be interpreted as a concept including route guidance when the user moves while walking or running as well as when the user rides and drives in a vehicle.

또한, 차선 이탈 안내는, 주행 중인 차량이 차선을 이탈하였는지 여부를 안내하는 것일 수 있다. In addition, the lane departure guidance may be guiding whether the driving vehicle has departed from a lane.

또한, 전방 차량 출발 안내는, 정차 중인 차량의 전방에 위치한 차량의 출발 여부를 안내하는 것일 수 있다. In addition, the front vehicle departure guidance may indicate whether a vehicle located in front of a stopped vehicle departs.

또한, 신호등 변경 안내는, 정차 중인 차량의 전방에 위치한 신호등의 변경 여부를 안내하는 것일 수 있다. 일 예로, 정지 신호를 나타내는 빨간등이 켜진 상태에서 출발 신호를 나타내는 파란등으로 변경되면, 이를 안내하는 것 일 수 있다. Also, the traffic light change guidance may be to guide whether a traffic light positioned in front of a stopped vehicle is changed. For example, when a red light indicating a stop signal is turned on to a blue light indicating a departure signal, this may be guiding.

또한, 전방 차량 추돌 방지 안내는 정차 또는 주행 중인 차량의 전방에 위치한 차량과의 거리가 일정 거리 이내가 되면 전방 차량과 추돌을 방지하기 위해 이를 안내하는 것일 수 있다. In addition, the front vehicle collision avoidance guidance may be to guide the vehicle in front of a stopped or driving vehicle to prevent a collision with the vehicle in front when the distance to the vehicle located in front is within a predetermined distance.

또한, 차로 변경 안내는 목적지까지의 경로 안내를 위하여 차량이 위치한 차로에서 다른 차로로 변경을 안내하는 것일 수 있다. In addition, the lane change guidance may indicate a change from a lane in which the vehicle is located to another lane in order to guide a route to a destination.

또한, 차로 안내는 차량이 현재 위치한 차로를 안내하는 것일 수 있다. Also, the lane guidance may indicate a lane in which the vehicle is currently located.

이러한, 다양한 안내의 제공을 가능하게 하는 차량의 전방 영상과 같은 운전 관련 영상은 차량에 거치된 카메라에서 촬영될 수 있다. 여기서 카메라는 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 스마트 폰, 내비게이션, 또는 블랙 박스와 일체로 형성될 수 있고, 전자 장치(100)는 일체로 형성된 카메라에서 촬영된 영상을 입력받을 수 있다.A driving-related image, such as a front image of a vehicle that enables the provision of various guidance, may be captured by a camera mounted on the vehicle. Here, the camera may be a camera integrally formed with the electronic device 100 mounted on the vehicle to photograph the front of the vehicle. In this case, the camera may be integrally formed with a smart phone, a navigation system, or a black box, and the electronic device 100 may receive an image captured by the integrally formed camera.

다른 예로, 카메라는 전자 장치(100)와 별개로 차량에 거치되어 차량의 전방을 촬영하는 카메라일 수 있다. 이 경우, 카메라는 차량의 전방을 향하여 거치된 별도의 블랙 박스일 수 있고, 전자 장치(100)는 별도로 거치된 블랙박스와 유/무선 통신을 통하여 촬영 영상을 입력받거나, 블랙 박스의 촬영 영상을 저장하는 저장 매체가 전자 장치(100)에 삽입되면, 전자 장치(100)는 촬영 영상을 입력받을 수 있다. As another example, the camera may be mounted on a vehicle separately from the electronic device 100 to photograph the front of the vehicle. In this case, the camera may be a separate black box mounted toward the front of the vehicle, and the electronic device 100 receives a photographed image through wired/wireless communication with the separately mounted black box, or receives a photographed image of the black box. When the storage medium to be stored is inserted into the electronic device 100 , the electronic device 100 may receive a captured image.

이하에서는, 상술한 내용을 기초로 본 발명의 일 실시 예에 따른 전자 장치(100)에 대해서 보다 구체적으로 설명하기로 한다.Hereinafter, the electronic device 100 according to an embodiment of the present invention will be described in more detail based on the above description.

저장부(110)는 전자 장치(100)의 동작에 필요한 다양한 데이터 및 어플리케이션을 저장하는 기능을 한다. 특히, 저장부(110)는 전자 장치(100)의 동작에 필요한 데이터, 예를 들어, OS, 경로 탐색 어플리케이션, 지도 데이터 등을 저장할 수 있다. 또한, 저장부(110)는 전자 장치(100)의 동작에 의하여 생성된 데이터, 예를 들어, 탐색된 경로 데이터, 수신한 영상 등을 저장할 수 있다. The storage unit 110 functions to store various data and applications required for the operation of the electronic device 100 . In particular, the storage 110 may store data necessary for the operation of the electronic device 100 , for example, an OS, a route search application, map data, and the like. Also, the storage 110 may store data generated by the operation of the electronic device 100 , for example, searched route data, a received image, and the like.

여기서 저장부(110)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.Here, the storage unit 110 includes a random access memory (RAM), a flash memory, a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable and programmable ROM (EEPROM), a register, a hard disk, a removable disk, and a memory. It may be implemented as a storage device in a built-in type such as a card or a Universal Subscriber Identity Module (USIM), as well as a storage device in a removable type such as a USB memory.

입력부(120)는 전자 장치(100)의 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하는 기능을 한다. 여기서, 입력부(120)는 사용자 입력부(121)와 마이크부(123)의 전부 또는 일부를 포함할 수 있다.The input unit 120 functions to convert a physical input from the outside of the electronic device 100 into a specific electrical signal. Here, the input unit 120 may include all or part of the user input unit 121 and the microphone unit 123 .

사용자 입력부(121)는 터치, 푸쉬동작 등과 같은 사용자 입력을 수신할 수 있다. 여기서 사용자 입력부(120)는 다양한 버튼의 형태, 터치 입력을 수신하는 터치 센서, 접근하는 모션을 수신하는 근접 센서 중 적어도 하나를 이용하여 구현될 수 있다. The user input unit 121 may receive a user input such as a touch or a push operation. Here, the user input unit 120 may be implemented using at least one of various button shapes, a touch sensor for receiving a touch input, and a proximity sensor for receiving an approaching motion.

마이크부(123)는 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신할 수 있다.The microphone unit 123 may receive a user's voice and a sound generated inside or outside the vehicle.

출력부(130)는 전자 장치(100)의 데이터를 출력하는 장치이다. 여기서, 출력부(130)는 디스플레이부(131)와 오디오 출력부(133)의 전부 또는 일부를 포함할 수 있다.The output unit 130 is a device that outputs data of the electronic device 100 . Here, the output unit 130 may include all or part of the display unit 131 and the audio output unit 133 .

디스플레이부(131)는 전자 장치(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이부(131)는 전자 장치(100)의 하우징 전면(前面)에 마련된 디스플레이부로 구현될 수 있다. 또한, 디스플레이부(131)는 전자 장치(100)와 일체로 형성되어 시각적 인식 데이터를 출력할 수 있고, HUD(Head Up Display)와 같이 전자 장치(100)와 별개로 설치되어 시각적 인식 데이터를 출력할 수도 있다. The display unit 131 is a device that outputs data that can be visually recognized by the electronic device 100 . The display unit 131 may be implemented as a display unit provided on the front of the housing of the electronic device 100 . Also, the display unit 131 may be integrally formed with the electronic device 100 to output visual recognition data, and may be installed separately from the electronic device 100 such as a Head Up Display (HUD) to output visual recognition data. You may.

오디오 출력부(133)는 전자 장치(100)가 청각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 오디오 출력부(133)는 전자 장치(100)의 사용자에게 알려야 할 데이터를 소리를 표현하는 스피커로 구현될 수 있다.The audio output unit 133 is a device for outputting data that can be recognized aurally by the electronic device 100 . The audio output unit 133 may be implemented as a speaker expressing sound of data to be notified to the user of the electronic device 100 .

통신부(180)는 전자 장치(100)가 다른 디바이스와 통신하기 위하여 마련될 수 있다. 통신부(180)는, 위치 데이터부(181)과, 무선 인터넷부(183)과, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189)의 전부 또는 일부를 포함할 수 있다. The communication unit 180 may be provided for the electronic device 100 to communicate with other devices. The communication unit 180 includes all or part of the location data unit 181 , the wireless Internet unit 183 , the broadcast transceiver unit 185 , the mobile communication unit 186 , the short-distance communication unit 187 , and the wired communication unit 189 . may include

위치 데이터부(181)는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 장치이다. GNSS는 인공위성으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시예에 따른 전자 장치(100)의위치 데이터부(181)는, 전자 장치(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다.The location data unit 181 is a device for acquiring location data through a Global Navigation Satellite System (GNSS). GNSS refers to a navigation system capable of calculating the position of a receiving terminal using a radio signal received from an artificial satellite. Specific examples of GNSS include GPS (Global Positioning System), Galileo, GLONASS (Global Orbiting Navigational Satellite System), COMPASS, IRNSS (Indian Regional Navigational Satellite System), QZSS (Quasi-Zenith Satellite System), etc. can The location data unit 181 of the electronic device 100 according to an embodiment of the present invention may obtain location data by receiving a GNSS signal serviced in a region where the electronic device 100 is used.

무선 인터넷부(183)는 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷부(183)를 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.The wireless Internet unit 183 is a device for acquiring or transmitting data by accessing the wireless Internet. The wireless Internet accessible through the wireless Internet unit 183 may be a wireless LAN (WLAN), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like.

방송 송수신부(185)는 각종 방송 시스템을 통하여 방송 신호를 송수신하는 장치이다. 방송 송수신부(185)를 통하여 송수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신부(185)를 통하여 송수신되는 방송 신호에는 교통 데이터, 생활 데이터 등을 포함할 수 있다.The broadcast transceiver 185 is a device for transmitting and receiving broadcast signals through various broadcast systems. Broadcast systems that can be transmitted and received through the broadcast transceiver 185 include Digital Multimedia Broadcasting Terrestrial (DMBT), Digital Multimedia Broadcasting Satellite (DMBS), Media Forward Link Only (MediaFLO), Digital Video Broadcast Handheld (DVBH), and ISDBT (Digital Multimedia Broadcasting Terrestrial). Integrated Services Digital Broadcast Terrestrial) or the like. The broadcast signal transmitted and received through the broadcast transceiver 185 may include traffic data, life data, and the like.

이동 통신부(186)는 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신할 수 있다.The mobile communication unit 186 may access and communicate with a mobile communication network according to various mobile communication standards such as 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE).

근거리 통신부(187)는 근거리 통신을 위한 장치이다. 근거리 통신부(187)는, 전술한 바와 같이, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WidBand), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity) 등을 통하여 통신할 수 있다.The short-distance communication unit 187 is a device for short-distance communication. The short-range communication unit 187, as described above, Bluetooth (Bluetooth), RFID (Radio Frequency Identification), infrared communication (IrDA, Infrared Data Association), UWB (Ultra WideBand), ZigBee, NFC (Near Field Communication), Wi -Communication is possible through Fi (Wireless-Fidelity), etc.

유선 통신부(189)는 전자 장치(100)를 다른 디바이스와 유선으로 연결할 수 있는 인터페이스 장치이다. 유선 통신부(119)는, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The wired communication unit 189 is an interface device that can connect the electronic device 100 to another device by wire. The wired communication unit 119 may be a USB module capable of communicating through a USB port.

이러한, 통신부(180)는 위치 데이터부(181)와, 무선 인터넷부(183)와, 방송 송수신부(185), 이동 통신부(186), 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 다른 디바이스와 통신할 수 있다. The communication unit 180 includes at least one of a location data unit 181 , a wireless Internet unit 183 , a broadcast transceiver unit 185 , a mobile communication unit 186 , a short-distance communication unit 187 , and a wired communication unit 189 . can be used to communicate with other devices.

일 예로, 전자 장치(100)가 카메라 기능을 포함하지 않는 경우, 블랙 박스 등과 같은 차량용 카메라에서 촬영된 영상을 근거리 통신부(187), 유선 통신부(189) 중 적어도 하나를 이용하여 수신할 수 있다.For example, when the electronic device 100 does not include a camera function, an image captured by a vehicle camera such as a black box may be received using at least one of the short-range communication unit 187 and the wired communication unit 189 .

다른 예로, 복수의 디바이스와 통신하는 경우에, 어느 하나는 근거리 통신부(187)로 통신하고, 다른 하나는 유선 통신부(119)를 통하여 통신하는 경우도 가능하다. As another example, when communicating with a plurality of devices, one may communicate with the short-range communication unit 187 and the other may communicate through the wired communication unit 119 .

센싱부(190)는 전자 장치(100)의 현재 상태를 감지할 수 있는 장치이다. 센싱부(190)는 모션 센싱부(191)와, 광 센싱부(193)의 전부 또는 일부를 포함할 수 있다.The sensing unit 190 is a device capable of detecting the current state of the electronic device 100 . The sensing unit 190 may include all or a part of the motion sensing unit 191 and the light sensing unit 193 .

모션 센싱부(191)는 전자 장치(100)의 3차원 공간 상에서의 운동을 감지할 수 있다. 모션 센싱부(191)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 모션 센싱부(191)을 통하여 획득한 운동 데이터를 위치 데이터부(181)를 통하여 획득한 위치 데이터와 결합하여, 전자 장치(100)를 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The motion sensing unit 191 may detect a motion of the electronic device 100 in a three-dimensional space. The motion sensing unit 191 may include a 3-axis geomagnetic sensor and a 3-axis acceleration sensor. A more accurate trajectory of the vehicle to which the electronic device 100 is attached may be calculated by combining the motion data acquired through the motion sensing unit 191 with the position data acquired through the position data unit 181 .

광 센싱부(193)는 전자 장치(100)의 주변 조도(illuminance)를 측정하는 장치이다. 광 센싱부(193)를 통하여 획득한 조도데이터를 이용하여, 디스플레이부(131)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The light sensing unit 193 is a device for measuring peripheral illuminance of the electronic device 100 . By using the illuminance data obtained through the light sensing unit 193, the brightness of the display unit 131 may be changed to correspond to the ambient brightness.

전원부(195)는 전자 장치(100)의 동작 또는 전자 장치(100)와 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급하는 장치이다. 전원부(195)는, 전자 장치(100)에 내장된 배터리 또는 차량 등의 외부전원에서 전원을 공급받는 장치일 수 있다. 또한, 전원부(195)는, 전원을 공급받는 형태에 따라서 유선 통신 모듈(119)로 구현되거나, 무선으로 공급받는 장치로 구현될 수도 있다.The power supply unit 195 is a device that supplies power necessary for the operation of the electronic device 100 or the operation of another device connected to the electronic device 100 . The power supply unit 195 may be a device that receives power from an external power source such as a battery built in the electronic device 100 or a vehicle. In addition, the power supply unit 195 may be implemented as a wired communication module 119 or a wirelessly supplied device depending on the form of receiving power.

횡단 보도 검출부(140)는 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출할 수 있다. 구체적으로, 횡단 보도 검출부(140)는 촬영 영상의 소실점(Vanishing point)을 이용하여 영상 데이터에서 횡단 보도를 포함하는 관심 영역을 결정할 수 있다. 여기서, 소실점은 차량의 운행 중에 카메라에서 촬영된 촬영 데이터로부터 차선을 추출하고, 추출된 차선을 연장하여 서로 교차하게 되는 점을 산출함으로써 결정될 수 있다. 또한, 횡단 보도는 소실점 하단 영역의 도로에 형성되어 있는 바, 횡단 보도 검출부(140)는 소실점의 하단 영역을 관심 영역으로 결정할 수 있다. The crosswalk detection unit 140 may detect a crosswalk from image data captured by the camera. Specifically, the crosswalk detection unit 140 may determine the region of interest including the crosswalk in the image data by using a vanishing point of the captured image. Here, the vanishing point may be determined by extracting a lane from photographing data captured by a camera while the vehicle is driving, and calculating a point at which the extracted lane crosses each other by extending it. Also, since the crosswalk is formed on the road at the lower end of the vanishing point, the crosswalk detection unit 140 may determine the lower end of the vanishing point as the region of interest.

한편, 횡단 보도 검출부(140)는 결정된 관심 영역의 영상 데이터에 이미지 처리를 수행하여 상기 관심 영역에 횡단 보도가 위치하는지 여부를 판단할 수 있다. Meanwhile, the crosswalk detection unit 140 may perform image processing on the determined image data of the ROI to determine whether a crosswalk is located in the ROI.

다만, 상술한 예시와 달리, 본 발명의 다른 실시 예에 따르면, 횡단 보도 검출부(140)는 카메라 촬영 영상 데이터를 이용하지 않고 횡단 보도의 검출을 수행할 수 있다. 일 예로, 횡단 보도 검출부(140)는 위치 데이터부(181)를 통해 결정된 차량의 현재 위치 정보와 저장부(110)에 기저장된 지도 데이터의 횡단 보도 위치를 이용하여 현재 차량이 횡단 보도에 위치하는지 여부를 판단할 수 있다. 또는, 보다 정확한 판단을 위하여, 횡단 보도 검출부(140)는 카메라 촬영 영상 데이터와 지도 데이터, 위치 데이터를 모두 고려하여 현재 차량이 횡단 보도에 위치하는지 여부를 판단할 수 있다. However, unlike the above-described example, according to another embodiment of the present invention, the crosswalk detection unit 140 may detect a crosswalk without using camera-captured image data. For example, the crosswalk detection unit 140 determines whether the current vehicle is located at the crosswalk by using the current location information of the vehicle determined through the location data unit 181 and the crosswalk location of the map data pre-stored in the storage unit 110 . can determine whether Alternatively, for more accurate determination, the crosswalk detection unit 140 may determine whether the current vehicle is located at the crosswalk in consideration of camera-captured image data, map data, and location data.

신호 종류 정보 판단부(150)는 카메라에서 촬영된 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단할 수 있다. 구체적으로, 신호 종류 정보 판단부(150) 촬영 영상의 소실점(Vanishing point)을 이용하여 영상 데이터에서 신호등을 포함하는 관심 영역을 결정하고, 결정된 관심 영역의 영상 데이터를 기 설정된 화소값을 기준으로 변환하여 관심 영역 영상 데이터를 생성할 수 있다. 여기서, 신호등은 소실점의 상부 영역에 위치하는 바, 신호 종류 정보 판단부(150)는 결정된 소실점의 상부 영역을 관심 영역으로 결정할 수 있다. The signal type information determining unit 150 may determine the signal type information by using the image data of the signal area portion of the traffic light among the image data captured by the camera. Specifically, the signal type information determining unit 150 determines a region of interest including a traffic light from image data using a vanishing point of the captured image, and converts the determined image data of the region of interest based on a preset pixel value. to generate ROI image data. Here, the traffic light is located in the upper region of the vanishing point, and the signal type information determining unit 150 may determine the upper region of the determined vanishing point as the region of interest.

한편, 신호 종류 정보 판단부(150)는 결정된 관심 영역 영상 데이터에서 신호등의 신호 영역 부분의 영상 데이터를 검출할 수 있다. 그리고, 신호 종류 정보 판단부(150)는 신호 영역 부분의 영상 데이터를 기초로 신호 종류 정보를 판단할 수 있다. Meanwhile, the signal type information determining unit 150 may detect image data of a signal region portion of a traffic light from the determined region of interest image data. In addition, the signal type information determining unit 150 may determine the signal type information based on the image data of the signal area portion.

여기서, 신호 종류 정보는, 신호등에서 표시 가능한 복수의 신호 각각을 식별시키기 위한 정보로, 정지 신호 정보, 직진 신호 정보, 좌회전 신호, 우회전 신호 등을 포함할 수 있다. Here, the signal type information is information for identifying each of a plurality of signals that can be displayed in a traffic light, and may include stop signal information, straight forward signal information, a left turn signal, a right turn signal, and the like.

운행 상태 판단부(155)는 차량의 운행 상태, 예를 들어, 차량이 정차 상태인지, 주행 상태인지 또는 주차 상태인지 판단할 수 있다. 구체적으로, 운행 상태 판단부(155)는 카메라에서 촬영된 영상 데이터를 이용하여 차량의 정차 상태 여부를 판단할 수 있다. 보다 구체적으로, 운행 상태 판단부(155)는 영상 데이터에 대한 그레이 영상 데이터를 생성하고, 생성된 그레이 영상 데이터에 포함된 복수의 프레임 각각을 시간 순서로 순차적으로 비교하여 차량의 정차 상태 여부를 판단할 수 있다. 다만, 이에 한정되는 것은 아니고, 운행 상태 판단부(155)는 센싱부(190)에서 감지된 신호, 위치 데이터부(181)에서 획득한 운동 데이터를 기초로 정차 상태 여부를 판단하거나, 또는 차량의 CAN 통신(Controller Area Network)을 이용하여 획득된 차량의 실시간 속도 정보를 기초로 차량의 운행 상태를 판단할 수 있다. The driving state determining unit 155 may determine the driving state of the vehicle, for example, whether the vehicle is in a stopped state, in a driving state, or in a parked state. Specifically, the driving state determining unit 155 may determine whether the vehicle is in a stopped state by using image data captured by the camera. More specifically, the driving state determining unit 155 generates gray image data for the image data, and sequentially compares each of a plurality of frames included in the generated gray image data in chronological order to determine whether the vehicle is in a stopped state. can do. However, the present invention is not limited thereto, and the driving state determining unit 155 determines whether the vehicle is in a stopped state based on the signal detected by the sensing unit 190 and the motion data obtained from the location data unit 181 , or The driving state of the vehicle may be determined based on real-time speed information of the vehicle obtained using CAN communication (Controller Area Network).

한편, 본 발명의 일 실시 예에 따른 전자 장치(100)는 증강 현실 뷰 모드를 제공하는 증강 현실 제공부(160)를 포함할 수 있고, 이에 대해서는 도 2를 참조하여 구체적으로 설명하기로 한다.Meanwhile, the electronic device 100 according to an embodiment of the present invention may include the augmented reality providing unit 160 that provides the augmented reality view mode, which will be described in detail with reference to FIG. 2 .

도 2는 본 발명의 일 실시 예에 따른 증강 현실 제공부(160)를 구체적으로 나타내는 블록도 이다. 도 2를 참조하면, 증강 현실 제공부(160)는 캘리브레이션부(161), 3D 공간 생성부(162), 객체 생성부(163), 맵핑부(164)의 전부 또는 일부를 포함할 수 있다. 2 is a block diagram specifically illustrating the augmented reality providing unit 160 according to an embodiment of the present invention. Referring to FIG. 2 , the augmented reality providing unit 160 may include all or a part of a calibrator 161 , a 3D space generator 162 , an object generator 163 , and a mapping unit 164 .

캘리브레이션부(161)는 카메라에서 촬영된 촬영 영상으로부터 카메라에 해당되는 카메라 파라미터를 추정하기 위한 캘리브레이션(Calibration)을 수행할 수 있다. 여기서, 카메라 파라미터는 실사공간이 사진에 맺히는 관계를 나타내는 정보인 카메라 행렬을 구성하는 파라미터일 수 있다.The calibrator 161 may perform calibration for estimating a camera parameter corresponding to a camera from a captured image captured by the camera. Here, the camera parameter may be a parameter constituting the camera matrix, which is information indicating the relationship between the actual space and the photograph.

3D 공간 생성부(162)는 카메라에서 촬영된 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다. 구체적으로, 3D 공간 생성부(162)는 캘리브레이션부(161)가 추정한 카메라 파라미터를 기초로 카메라가 촬영한 영상으로부터 깊이 정보(Depths information)를 획득하고, 획득한 깊이 정보와 촬영 영상을 기초로 가상 3D 공간을 생성할 수 있다.The 3D space generator 162 may generate a virtual 3D space based on a captured image captured by the camera. Specifically, the 3D space generator 162 obtains depth information from an image captured by the camera based on the camera parameter estimated by the calibrator 161, and based on the obtained depth information and the captured image You can create a virtual 3D space.

객체 생성부(163)는 증강 현실 상에서 안내를 위한 객체, 예를 들어, 경로 안내 객체, 차로 변경 안내 객체, 차선 이탈 안내 객체, 횡단 보도 객체, 보행자 안내 객체 등을 생성할 수 있다. 여기서, 객체는 3차원 객체, 텍스처 이미지 또는 아트라인 등으로 구현될 수 있다. The object generator 163 may generate an object for guidance in the augmented reality, for example, a route guidance object, a lane change guidance object, a lane departure guidance object, a crosswalk object, a pedestrian guidance object, and the like. Here, the object may be implemented as a 3D object, a texture image, or an art line.

맵핑부(164)는 3D 공간 생성부(162)에서 생성된 가상 3D 공간에 객체 생성부(163)에서 생성된 객체를 매핑할 수 있다.The mapping unit 164 may map the object generated by the object generating unit 163 to the virtual 3D space generated by the 3D space generating unit 162 .

한편, 제어부(170)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(170)는 저장부(110), 입력부(120), 출력부(130), 횡단 보도 검출부(140), 신호 종류 정보 판단부(150), 운행 상태 판단부(155), 증강 현실 제공부(160), 통신부(180), 센싱부(190), 전원부(195)의 전부 또는 일부를 제어할 수 있다.Meanwhile, the controller 170 controls the overall operation of the electronic device 100 . Specifically, the control unit 170 includes a storage unit 110 , an input unit 120 , an output unit 130 , a crosswalk detection unit 140 , a signal type information determination unit 150 , a driving state determination unit 155 , and augmented reality. All or part of the providing unit 160 , the communication unit 180 , the sensing unit 190 , and the power supply unit 195 may be controlled.

특히, 제어부(170)는 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도가 검출되면, 검출된 횡단 보도를 나타내는 객체를 생성하도록 객체 생성부(163)를 제어하고, 생성된 객체를 증강 현실을 통하여 출력하도록 제어할 수 있다. In particular, when a crosswalk is detected from image data captured by the camera while the vehicle is driving, the controller 170 controls the object generator 163 to generate an object representing the detected crosswalk, and converts the created object into augmented reality. It can be controlled to output through .

일 예로, 운행 상태 판단부(155)의 판단 결과 차량의 정차 상태이고, 횡단 보도 검출부(140)의 판단 결과 차량의 전방에 횡단 보도가 존재하는 경우, 제어부(170)는 횡단 보도를 나타내는 제1 객체를 생성하도록 객체 생성부(163)를 제어할 수 있다. 그리고, 제어부(170)는 생성된 객체를 증강 현실을 통하여 출력하도록 제어할 수 있다. 여기서, 제1 객체는 차량의 전방에 횡단 보도가 존재함을 운전자에게 인식시키기 위한 객체일 수 있다. For example, when the driving state determination unit 155 determines that the vehicle is in a stopped state, and the crosswalk detection unit 140 determines that there is a crosswalk in front of the vehicle, the controller 170 controls the first crosswalk indicating the crosswalk. The object generator 163 may be controlled to create an object. In addition, the controller 170 may control to output the created object through augmented reality. Here, the first object may be an object for recognizing to the driver that a crosswalk exists in front of the vehicle.

다른 예로, 운행 상태 판단부(155)의 판단 결과 차량의 정차 상태이고, 신호 종류 정보 판단부(150)의 판단 결과 정지 신호이며, 횡단 보도 검출부(140)의 판단 결과 차량의 전방에 횡단 보도가 존재하는 경우, 제어부(170)는 차량이 정지 상태를 유지하는 동안 횡단 보도를 나타내는 제1 객체를 생성하도록 객체 생성부(163)를 제어할 수 있다. 그리고, 제어부(170)는 생성된 제1 객체를 증강 현실을 통하여 출력하도록 제어할 수 있다. 여기서, 제1 객체는 차량의 전방에 횡단 보도가 존재함을 운전자에게 인식시키기 위한 객체일 수 있다. As another example, the determination result of the driving state determination unit 155 indicates that the vehicle is in a stopped state, the determination result of the signal type information determination unit 150 indicates a stop signal, and the determination result of the crosswalk detection unit 140 indicates that a crosswalk is in front of the vehicle. If present, the controller 170 may control the object generator 163 to generate a first object representing a crosswalk while the vehicle maintains a stopped state. In addition, the controller 170 may control to output the generated first object through augmented reality. Here, the first object may be an object for recognizing to the driver that a crosswalk exists in front of the vehicle.

다만, 정지 신호 중 차량이 정차 상태에서 움직이는 경우, 제어부(170)는 제2 객체를 생성하도록 객체 생성부(163)를 제어할 수 있다. 그리고, 제어부(170)는 생성된 제2 객체를 증강 현실을 통하여 출력하도록 제어할 수 있다. 여기서, 제2 객체는 차량의 전방에 횡단 보도가 존재함을 운전자에게 경고하기 위한 객체일 수 있다. However, when the vehicle moves in a stopped state among the stop signals, the controller 170 may control the object generator 163 to generate the second object. In addition, the controller 170 may control to output the generated second object through augmented reality. Here, the second object may be an object for warning the driver that a crosswalk exists in front of the vehicle.

여기서, 차량의 전방에 횡단 보도가 존재함을 운전자에게 인식시키기 위한 제1 객체와 차량의 전방에 횡단 보도가 존재함을 운전자에게 경고하기 위한 제2 객체는 서로 구별될 수 있다. Here, the first object for making the driver recognize that the crosswalk exists in front of the vehicle and the second object for warning the driver that the crosswalk exists in front of the vehicle may be distinguished from each other.

구체적으로, 제1, 제2 객체를 서로 상이한 색깔로 구별될 수 있다. 예를 들어, 제1 객체의 경우 현실 세계의 횡단 보도 색깔과 유사한 하얀색으로 구현되어 증강 현실 화면에 표출될 수 있고, 제2 객체는 운전자에게 위험 상태임을 인지시키기 위한 색, 예를 들어, 빨간색으로 구현되어 증강 현실 화면에 표출될 수 있다. Specifically, the first and second objects may be distinguished from each other by different colors. For example, the first object may be implemented in a white color similar to the color of a crosswalk in the real world and displayed on the augmented reality screen, and the second object may be displayed in a color for recognizing that the driver is in a dangerous state, for example, red. It may be implemented and displayed on the augmented reality screen.

또한, 제1, 제2 객체는 색의 투명도에 관련된 알파 채널을 포함하는 형태, 예를 들어, RGBA(Red, Green, Blue, Alpha)로 구현될 수 있고, 이 경우, 알파 채널에 따라 제1, 제2 객체는 투명 영역을 포함할 수 있다. 즉, 제1, 제2 객체는 현실 세계의 횡단 보도에 대응되도록, 색을 표출하는 영역 및 투명 영역을 포함하여 구현될 수 있다. In addition, the first and second objects may be implemented in a form including an alpha channel related to color transparency, for example, RGBA (Red, Green, Blue, Alpha). In this case, the first object according to the alpha channel , the second object may include a transparent area. That is, the first and second objects may be implemented by including a color-expressing area and a transparent area to correspond to a crosswalk in the real world.

또한, 제1, 제2 객체의 표출 위치는, 증강 현실에서 횡단 보도가 위치하는 영역일 수 있다. 예를 들어, 횡단 보도 검출부(140)가 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하면, 제어부(170)는 횡단 보도가 검출된 위치에 대응되는 증강 현실 화면 내의 위치에 제1, 제2 객체를 표출하도록 맵핑부(164)를 제어할 수 있다. 이러한, 본 발명의 일 실시 예에 따르면, 횡단 보도를 나타내는 객체가 증강 현실 화면의 횡단 보도 위에 위치하는 것처럼 표출될 수 있고, 이에 따라 운전자에게 보다 직관적인 방법으로 안내를 제공할 수 있다. In addition, the display position of the first and second objects may be an area where a crosswalk is located in the augmented reality. For example, when the crosswalk detection unit 140 detects a crosswalk from the image data captured by the camera, the controller 170 controls the first and second objects at positions in the augmented reality screen corresponding to the position where the crosswalk is detected. The mapping unit 164 may be controlled to express . According to an embodiment of the present invention, the object representing the crosswalk may be displayed as if it is located on the crosswalk on the augmented reality screen, and accordingly, guidance may be provided to the driver in a more intuitive way.

한편, 본 발명의 일 실시 예에 따르면, 횡단 보도에 보행자의 존재 여부를 판단하여 이에 대응되는 알림을 수행할 수 있다. Meanwhile, according to an embodiment of the present invention, it is possible to determine whether a pedestrian is present in a crosswalk and perform a corresponding notification.

구체적으로, 제어부(170)는 촬영된 영상 데이터를 이용하여 횡단 보도에 보행자의 존재 여부를 판단하고, 보행자의 존재 여부를 나타내는 제3 객체를 생성하도록 객체 생성부(163)를 제어할 수 있다. 그리고, 제어부(170)는 생성된 제3 객체를 증강 현실을 통하여 출력하도록 제어할 수 있다. 여기서, 제3 객체는 횡단 보도에서 보행자가 존재함을 운전자에게 인식시키기 위한 객체일 수 있다. Specifically, the controller 170 may control the object generator 163 to determine whether a pedestrian exists in the crosswalk by using the captured image data, and to generate a third object indicating the presence of the pedestrian. In addition, the controller 170 may control the generated third object to be output through augmented reality. Here, the third object may be an object for recognizing the presence of a pedestrian in the crosswalk to the driver.

또한, 횡단 보도에 보행자가 존재하는 상태에서 자차의 전방 차량이 출발하는 경우, 제어부(170)는 전방 차량 출발 안내를 수행하지 않도록 제어할 수 있다. 즉, 횡단 보도에 보행자가 존재하는 상태에서 전방 차량 출발 안내를 수행하면 자차와 보행자의 충돌이 발생할 수 있는 바, 이 경우 제어부(170)는 전방 차량 출발 안내를 수행하지 않도록 제어할 수 있다. In addition, when the vehicle in front of the host vehicle starts while there is a pedestrian in the crosswalk, the controller 170 may control not to guide the departure of the vehicle ahead. That is, if the forward vehicle departure guidance is performed in a state where pedestrians are present in the crosswalk, a collision between the own vehicle and the pedestrian may occur. In this case, the controller 170 may control not to perform the forward vehicle departure guidance.

또한, 횡단 보도에 보행자가 존재하는 상태에서 자차가 정차 상태에서 출발하는 경우, 제어부(170)는 횡단 보도에 보행자가 존재함을 경고하기 위한 안내를 수행하도록 제어할 수 있다. 즉, 횡단 보도에 보행자가 존재하는 상태에서 자차가 정차 상태에서 출발하면 자차와 보행자의 충돌이 발생할 수 있는 바, 이 경우 제어부(170)는 자차가 출발하면 안된다는 안내를 수행하도록 제어할 수 있다. In addition, when the vehicle starts from a stopped state in a state in which a pedestrian is present in the crosswalk, the control unit 170 may control to perform guidance to warn that a pedestrian is present in the crosswalk. That is, when the own vehicle starts from a stopped state in the presence of pedestrians in the crosswalk, collisions between the own vehicle and the pedestrian may occur. In this case, the controller 170 may control to perform a guidance that the own vehicle should not depart.

한편, 상술한 예시들에 따르면, 횡단 보도, 보행자 등의 안내는 증강 현실 화면 상에서 이미지의 형태로 표시되는 것을 예로 설명하였으나, 본 발명은 이에 한정되는 것은 아니다. 따라서, 본 발명의 다른 실시 예에 따르면, 제어부(170)는 안내를 음성으로 출력하도록 오디오 출력부(133)를 제어할 수 있다. Meanwhile, according to the above-described examples, it has been described as an example that the guidance of a crosswalk, a pedestrian, etc. is displayed in the form of an image on the augmented reality screen, but the present invention is not limited thereto. Accordingly, according to another embodiment of the present invention, the control unit 170 may control the audio output unit 133 to output the guidance as voice.

도 3은 본 발명의 일 실시 예에 따른 전자 장치와 연결된 시스템 네트워크를 설명하기 위한 도면이다. 도 3을 참조하면, 본 발명의 일 실시 예에 따른 전자 장치(100)는 내비게이션, 블랙 박스, 스마트 폰 또는 기타 차량용 증강 현실 인터페이스 제공 장치 등과 같은 차량에 구비되는 각종 장치로 구현될 수 있으며, 다양한 통신망 및 다른 전자 디바이스(61 내지 64)와 접속할 수 있다.3 is a diagram for explaining a system network connected to an electronic device according to an embodiment of the present invention. Referring to FIG. 3 , the electronic device 100 according to an embodiment of the present invention may be implemented as various devices provided in a vehicle, such as a navigation device, a black box, a smart phone, or other device for providing an augmented reality interface for a vehicle. It can connect to a communication network and other electronic devices 61 to 64 .

또한, 전자 장치(100)는 인공위성(20)으로부터 수신한 전파신호에 따라 GPS모듈을 연동하여 현재의 위치 및 현재 시간대를 산출할 수 있다.In addition, the electronic device 100 may calculate the current location and the current time zone by interworking with the GPS module according to the radio signal received from the artificial satellite 20 .

각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 전자 장치(100)는, 각각의 인공위성(20)에서 송신된 L밴드 주파수가 전자 장치(100)에 도달하는데 까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.Each of the satellites 20 may transmit an L-band frequency having a different frequency band. The electronic device 100 may calculate the current location based on the time it takes for the L-band frequency transmitted from each satellite 20 to reach the electronic device 100 .

한편, 전자 장치(100)는, 통신부(180)을 통하여 제어국(40, ACR), 기지국(50, RAS) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 전자 장치(100)가 접속하면, 네트워크(30)에 접속한 다른 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.Meanwhile, the electronic device 100 may wirelessly access the network 30 through the control station 40 , ACR, the base station 50 , RAS, etc. through the communication unit 180 . When the electronic device 100 is connected to the network 30 , it may also indirectly connect with other electronic devices 61 and 62 connected to the network 30 to exchange data.

한편, 전자 장치(100)는, 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 모듈이 전자 장치(100)에 구비되지 않은 경우에, 근거리 통신 모듈 등을 통하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있다.Meanwhile, the electronic device 100 may indirectly access the network 30 through another device 63 having a communication function. For example, when the electronic device 100 does not include a module that can connect to the network 30 , it can communicate with another device 63 having a communication function through a short-range communication module or the like.

도 4는 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 개략적으로 나타내는 흐름도 이다. 도 4를 참조하면, 전자 장치(100)는 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출할 수 있다(S101). 여기서 카메라는 차량에 거치된 전자 장치(100)와 일체로 형성되어 차량의 전방을 촬영하는 카메라이거나, 또는 카메라는 차량의 전방을 향하여 거치된 별도의 블랙 박스일 수 있다. 4 is a flowchart schematically illustrating a method for controlling an electronic device according to an embodiment of the present invention. Referring to FIG. 4 , the electronic device 100 may detect a crosswalk from image data captured by a camera while driving a vehicle ( S101 ). Here, the camera may be a camera integrally formed with the electronic device 100 mounted on the vehicle to photograph the front of the vehicle, or the camera may be a separate black box mounted toward the front of the vehicle.

그리고, 전자 장치(100)는 검출된 횡단 보도를 나타내는 객체를 생성할 수 있다(S102). 여기서, 객체는 3차원 객체, 텍스처 이미지 또는 아트라인 등으로 구현될 수 있다. Then, the electronic device 100 may create an object representing the detected crosswalk (S102). Here, the object may be implemented as a 3D object, a texture image, or an art line.

그리고, 전자 장치(100)는 생성된 객체를 증강 현실을 통해 출력할 수 있다(S103). 여기서, 출력하는 단계(S103)는 카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출하는 단계, 카메라 파라미터를 기초로 카메라의 촬영 영상에 대한 가상 3D(3-Dimensional) 공간을 생성하는 단계 및 가상 3D 공간에 생성된 객체를 위치시키는 단계를 포함할 수 있다. Then, the electronic device 100 may output the generated object through augmented reality (S103). Here, the step of outputting (S103) is a step of performing calibration on the camera to calculate camera parameters, generating a virtual 3D (3-dimensional) space for the captured image of the camera based on the camera parameters, and It may include positioning the created object in the virtual 3D space.

이하에서는, 도 5 내지 7을 참조하여, 전자 장치(100)의 제어 방법을 보다 구체적으로 설명하기로 한다.Hereinafter, a method of controlling the electronic device 100 will be described in more detail with reference to FIGS. 5 to 7 .

도 5는 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 5를 참조하면, 전자 장치(100)는 차량의 정차 상태 여부를 판단할 수 있다(S201). 여기서, 차량의 정차 상태 여부는 상술한 운행 상태 판단부(155)를 이용하여 수행될 수 있다. 5 is a flowchart specifically illustrating a method for controlling an electronic device according to an embodiment of the present invention. Referring to FIG. 5 , the electronic device 100 may determine whether the vehicle is in a stopped state ( S201 ). Here, whether the vehicle is in a stopped state may be performed using the above-described driving state determining unit 155 .

정차 상태인 경우, 전자 장치(100)는 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출할 수 있다(S202). 여기서, 횡단 보도의 검출은 상술한 횡단 보도 검출부(140)를 이용하여 수행될 수 있다. When the vehicle is in a stopped state, the electronic device 100 may detect a crosswalk from image data captured by a camera while the vehicle is driving ( S202 ). Here, the detection of the crosswalk may be performed using the above-described crosswalk detection unit 140 .

횡단 보도가 검출되면, 전자 장치(100)는 횡단 보도가 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성할 수 있다(S203).When a crosswalk is detected, the electronic device 100 may generate a first object for recognizing that the crosswalk is located in front of the vehicle ( S203 ).

그리고, 전자 장치(100)는 생성된 제1 객체를 증강 현실을 통해 출력할 수 있다(S204). 이 경우, 제어부(170)는 생성된 제1 객체가 증강 현실 화면에서 자차에 근접하여 표출되도록 매핑부(164)를 제어할 수 있다. Then, the electronic device 100 may output the generated first object through augmented reality (S204). In this case, the controller 170 may control the mapping unit 164 so that the generated first object is displayed in proximity to the own vehicle on the augmented reality screen.

이에 따라, 제1 객체는 증강 현실 화면의 도로 영역 중 자차의 전방에 근접하여 표출될 수 있고, 운전자는 자차의 전방 근처에 횡단 보도가 존재함을 용이하게 인식할 수 있다. Accordingly, the first object may be displayed in proximity to the front of the own vehicle in the road area of the augmented reality screen, and the driver may easily recognize that a crosswalk exists near the front of the own vehicle.

도 6은 본 발명의 다른 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 6을 참조하면, 전자 장치(100)는 차량의 정차 상태 여부를 판단할 수 있다(S301). 여기서, 차량의 정차 상태 여부는 상술한 운행 상태 판단부(155)를 이용하여 수행될 수 있다. 6 is a flowchart specifically illustrating a method of controlling an electronic device according to another embodiment of the present invention. Referring to FIG. 6 , the electronic device 100 may determine whether the vehicle is in a stopped state ( S301 ). Here, whether the vehicle is in a stopped state may be performed using the above-described driving state determining unit 155 .

정차 상태로 판단되면, 전자 장치(100)는 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단할 수 있다(S302). 여기서, 신호 종류 정보 판단은 상술한 신호 종류 정보 판단부(150)를 이용하여 수행될 수 있다. When it is determined that the vehicle is in a stopped state, the electronic device 100 may determine signal type information by using image data of a signal region portion of a traffic light among the image data ( S302 ). Here, the signal type information determination may be performed using the above-described signal type information determination unit 150 .

신호 종류 정보가 정지 신호로 판단되면, 전자 장치(100)는 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출할 수 있다(S303). 여기서, 횡단 보도의 검출은 상술한 횡단 보도 검출부(140)를 이용하여 수행될 수 있다. When it is determined that the signal type information is a stop signal, the electronic device 100 may detect a crosswalk from image data captured by the camera while the vehicle is being driven ( S303 ). Here, the detection of the crosswalk may be performed using the above-described crosswalk detection unit 140 .

그리고, 전자 장치(100)는 신호 종류 정보가 정지 신호인 상태에서 차량이 정차 상태를 유지하면, 횡단 보도가 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성할 수 있다(S304).In addition, when the vehicle maintains a stopped state in a state in which the signal type information is a stop signal, the electronic device 100 may generate a first object for recognizing that a crosswalk is located in front of the vehicle ( S304 ).

그리고, 전자 장치(100)는 상기 신호 종류 정보가 정지 신호인 상태에서 차량이 출발하면, 횡단 보도가 차량의 전방에 위치함을 경고하기 위한 제2 객체를 생성할 수 있다(S305).Then, when the vehicle starts in a state in which the signal type information is a stop signal, the electronic device 100 may create a second object for warning that a crosswalk is located in front of the vehicle ( S305 ).

그리고, 전자 장치(100)는 생성된 객체를 증강 현실을 통해 출력할 수 있다(S306). 여기서, 생성된 제1, 제2 객체는 서로 다른 안내를 운전자에게 제공하기 위하여 서로 구별된 형태로 표출될 수 있다. Then, the electronic device 100 may output the generated object through augmented reality (S306). Here, the generated first and second objects may be displayed in different forms in order to provide different guidance to the driver.

이에 따라, 운전자는 자차의 전방 근처에 횡단 보도가 존재함을 용이하게 인식할 수 있을 뿐만 아니라, 차량이 출발 가능한지 여부를 용이하게 인식할 수 있다. Accordingly, the driver can not only easily recognize that a crosswalk exists near the front of the own vehicle, but can also easily recognize whether the vehicle can start.

도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치의 제어 방법을 구체적으로 나타내는 흐름도 이다. 도 7을 참조하면, 전자 장치(100)는 차량의 정차 상태 여부를 판단할 수 있다(S401). 여기서, 차량의 정차 상태 여부는 상술한 운행 상태 판단부(155)를 이용하여 수행될 수 있다. 7 is a flowchart specifically illustrating a method of controlling an electronic device according to another embodiment of the present invention. Referring to FIG. 7 , the electronic device 100 may determine whether the vehicle is in a stopped state ( S401 ). Here, whether the vehicle is in a stopped state may be performed using the above-described driving state determining unit 155 .

정차 상태로 판단되면, 전자 장치(100)는 차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출할 수 있다(S402). 여기서, 횡단 보도의 검출은 상술한 횡단 보도 검출부(140)를 이용하여 수행될 수 있다. If it is determined that the vehicle is stopped, the electronic device 100 may detect a crosswalk from image data captured by the camera while the vehicle is driving ( S402 ). Here, the detection of the crosswalk may be performed using the above-described crosswalk detection unit 140 .

횡단 보도가 검출되면, 전자 장치(100)는 촬영된 영상 데이터를 이용하여 횡단 보도에 보행자의 존재 여부를 판단할 수 있다(S403).When a crosswalk is detected, the electronic device 100 may determine whether a pedestrian exists in the crosswalk using the captured image data (S403).

그리고, 전자 장치(100)는 보행자의 존재 여부를 나타내는 객체를 생성할 수 있다(S404). Then, the electronic device 100 may create an object indicating whether a pedestrian is present (S404).

그리고, 전자 장치(100)는 생성된 객체를 증강 현실을 통해 출력할 수 있다(S405). 이에 따라, 운전자는 자차의 전방 근처에 보행자가 보행 중임을 용이하게 인식할 수 있다. Then, the electronic device 100 may output the generated object through augmented reality (S405). Accordingly, the driver can easily recognize that a pedestrian is walking near the front of the own vehicle.

한편, 본 발명에 따르면, 전자 장치(100)는 횡단 보도에 보행자가 존재하는 상태에서 자차의 전방 차량이 출발하는 경우, 전방 차량 출발 안내를 수행하지 않도록 제어할 수 있다. Meanwhile, according to the present invention, when the vehicle in front of the own vehicle starts while there is a pedestrian in the crosswalk, the electronic device 100 may control not to perform the forward vehicle departure guidance.

또한, 본 발명에 따르면, 전자 장치(100) 횡단 보도에 보행자가 존재하는 상태에서 자차가 정차 상태에서 출발하는 경우, 횡단 보도에 보행자가 존재함을 경고하기 위한 안내를 수행하도록 제어할 수 있다.Also, according to the present invention, when the own vehicle starts from a stop state in a state in which a pedestrian is present in the crosswalk, the electronic device 100 may control to perform a guide to warn that a pedestrian is present in the crosswalk.

도 8은 본 발명의 일 실시 예에 따른 횡단 보도 객체를 표출하는 증강 현실 화면을 나타내는 도면이다. 도 8(a)는 정지 신호(810) 중 차량이 횡단 보도 뒤에서 정차하고 있는 경우의 증강 현실 화면을 나타내는 도면이다. 도 8(a)를 참조하면, 전자 장치(100)는 차량의 전방에 위치한 횡단 보도를 나타내는 제1 객체(801)를 생성하고, 생성된 제1 객체(801)를 증강 현실을 통하여 출력할 수 있다. 여기서, 제1 객체(801)는 증강 현실 화면의 도로 영역 중 자차의 전방에 근접하여 표출될 수 있고, 이에 따라 운전자는 자차의 전방 근처에 횡단 보도가 존재함을 용이하게 인식할 수 있다.8 is a diagram illustrating an augmented reality screen displaying a crosswalk object according to an embodiment of the present invention. 8A is a diagram illustrating an augmented reality screen when a vehicle is stopped behind a crosswalk among the stop signals 810 . Referring to FIG. 8A , the electronic device 100 may generate a first object 801 representing a crosswalk located in front of a vehicle, and output the generated first object 801 through augmented reality. there is. Here, the first object 801 may be displayed in proximity to the front of the own vehicle among the road regions of the augmented reality screen, and accordingly, the driver may easily recognize that a crosswalk exists near the front of the own vehicle.

한편, 도 8(b)는 정지 신호(810) 중 차량이 정차 상태에서 움직이는 경우의 증강 현실 화면을 나타내는 도면이다. 도 8(b)를 참조하면, 전자 장치(100)는 차량의 전방에 횡단 보도가 존재함을 운전자에게 경고하기 위한 제2 객체(802)를 생성하고, 생성된 제2 객체(802)를 증강 현실을 통하여 출력할 수 있다. 여기서, 제2 객체(802)는 증강 현실 화면의 도로 영역 중 자차의 전방에 근접하여 표출될 수 있고, 제1 객체(801)와 구별되도록 서로 상이한 색깔로 구현될 수 있다. 이에 따라 운전자는 현재 차량이 출발하면 안된다는 점을 용이하게 인식할 수 있다. Meanwhile, FIG. 8B is a diagram illustrating an augmented reality screen when the vehicle moves in a stopped state among the stop signals 810 . Referring to FIG. 8B , the electronic device 100 creates a second object 802 for warning the driver that a crosswalk exists in front of the vehicle, and augments the generated second object 802 . It can be output through reality. Here, the second object 802 may be displayed in proximity to the front of the own vehicle in the road area of the augmented reality screen, and may be implemented in different colors to be distinguished from the first object 801 . Accordingly, the driver can easily recognize that the current vehicle should not start.

한편, 상술한 제1, 제2 객체는 텍스처(texture) 이미지로 구현되어 증강 현실을 통하여 표출될 수 있다. 이에 대해서는 도 9를 참조하여 구체적으로 설명하기로 한다. Meanwhile, the above-described first and second objects may be implemented as texture images and expressed through augmented reality. This will be described in detail with reference to FIG. 9 .

도 9를 참조하면, 차량의 전방에 횡단 보도가 존재함을 운전자에게 인식시키기 위한 제1 객체(801)는 현실 세계의 횡단 보도 색깔과 유사한 하얀색으로 구현될 수 있고, 차량의 전방에 횡단 보도가 존재함을 운전자에게 경고하기 위한 제2 객체(802)는 위험 상태임을 인지시키기 위한 색, 예를 들어, 빨간색으로 구현되어 증강 현실 화면에 표출될 수 있다. Referring to FIG. 9 , the first object 801 for recognizing to the driver that there is a crosswalk in front of the vehicle may be implemented in white color similar to the color of the crosswalk in the real world, and the crosswalk in front of the vehicle The second object 802 for warning the driver of the existence may be implemented in a color for recognizing that a dangerous state is present, for example, red, and displayed on the augmented reality screen.

여기서, 제1 객체(801), 제2 객체(802)는 현실 세계의 횡단 보도에 대응되도록 색을 표출하는 영역(801-1,802-1)과 투명 영역(801-2,802-2)을 포함하여 구현될 수 있다. 이 경우, 투명 영역(801-2,802-2)은, 일 예로, RGBA(Red, Green, Blue, Alpha)의 알파 채널 값인 A 값을 변경함으로써 투명도가 조절될 수 있다. 본 발명의 실시 예에서 알파 채널 값은 0.0(완전투명)과 1.0(완전 불투명) 사이의 값을 갖는다. 본 발명의 실시 예에서는 색상 표시를 위한 값으로 RGBA 값을 사용하였으나, 투명도를 나타내는 알파 채널 값을 표시하는 또 다른 색상 표시 단위인 HSLA(Hue, Saturation, Lightness, Alpha) 등을 사용할 수도 있다. Here, the first object 801 and the second object 802 are implemented to include areas 801-1 and 802-1 and transparent areas 801-2 and 802-2 for expressing colors so as to correspond to a crosswalk in the real world. can be In this case, transparency of the transparent regions 801 - 2 and 802 - 2 may be adjusted by, for example, changing the value A, which is an alpha channel value of RGBA (Red, Green, Blue, Alpha). In an embodiment of the present invention, the alpha channel value has a value between 0.0 (completely transparent) and 1.0 (completely opaque). In the embodiment of the present invention, RGBA values are used as values for color display, but HSLA (Hue, Saturation, Lightness, Alpha), which is another color display unit for displaying an alpha channel value indicating transparency, may be used.

도 10은 본 발명의 일 실시 예에 따른 보행자의 알림 객체를 표출하는 증강 현실 화면을 나타내는 도면이다. 도 10을 참조하면, 전자 장치(100)는 횡단 보도에 보행자(1002)가 존재하는 경우 이를 안내하기 위한 제3 객체(1001)를 생성하고, 생성된 제3 객체(1001)를 증강 현실을 통하여 출력하도록 제어할 수 있다. 이에 따라 운전자는 현재 차량의 전방에 보행자가 보행 중임을 인식함과 동시에 현재 차량이 출발하면 안된다는 점을 용이하게 인식할 수 있다. 10 is a diagram illustrating an augmented reality screen displaying a notification object of a pedestrian according to an embodiment of the present invention. Referring to FIG. 10 , the electronic device 100 creates a third object 1001 for guiding a pedestrian 1002 when there is a pedestrian in a crosswalk, and uses the generated third object 1001 through augmented reality. output can be controlled. Accordingly, the driver can recognize that a pedestrian is walking in front of the current vehicle and can easily recognize that the current vehicle must not start.

도 11은 본 발명의 일 실시 예에 따른 내비게이션 장치가 촬영부를 구비하지 않는 경우 구현 형태를 나타내는 도면이다. 도 11을 참조하면, 차량용 내비게이션 장치(100)와 별도로 마련된 차량용 블랙박스(200)가 유선/무선 통신 방식을 이용하여 본 발명의 일 실시 예에 따른 시스템을 구성할 수 있다. 11 is a diagram illustrating an implementation form when a navigation device according to an embodiment of the present invention does not include a photographing unit. Referring to FIG. 11 , a vehicle black box 200 provided separately from the vehicle navigation device 100 may configure a system according to an embodiment of the present invention using a wired/wireless communication method.

차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이부(131)와, 내비게이션 조작키(121)와, 내비게이션 마이크(123)를 포함할 수 있다.The vehicle navigation device 100 may include a display unit 131 provided on a front surface of the navigation housing 191 , a navigation operation key 121 , and a navigation microphone 123 .

차량용 블랙박스(200)는 블랙박스 카메라(222)와, 블랙박스 마이크(224)와, 부착부(281)를 포함할 수 있다.The vehicle black box 200 may include a black box camera 222 , a black box microphone 224 , and an attachment unit 281 .

도 12는 본 발명의 일 실시 예에 따른 내비게이션 장치가 촬영부를 구비하는 경우 구현 형태를 나타내는 도면이다. 도 12를 참조하면, 내비게이션 장치(100)가 촬영부(125)를 포함하는 경우, 사용자는 내비게이션 장치(100)의 촬영부(125)가 차량의 전방을 촬영하고, 내비게이션 장치(100)의 디스플레이 부분이 사용자 인식가능하도록 내비게이션 장치(100)를 거치시킬 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 시스템을 구현할 수 있다. 12 is a diagram illustrating an implementation form when a navigation device according to an embodiment of the present invention includes a photographing unit. Referring to FIG. 12 , when the navigation device 100 includes the photographing unit 125 , the user may use the photographing unit 125 of the navigation device 100 to photograph the front of the vehicle and display the navigation device 100 . The navigation device 100 may be mounted so that the portion is recognizable by the user. Accordingly, it is possible to implement a system according to an embodiment of the present invention.

도 13은 본 발명의 일 실시 예에 따른 HUD(Head-Up Display)를 이용한 구현 형태를 나타내는 도면이다. 도 13을 참조하면, HUD는 다른 디바이스들과의 유/무선 통신을 통하여 증강 현실 안내 화면을 헤드업 디스플레이 상에서 표시할 수 있다. 13 is a diagram illustrating an implementation form using a head-up display (HUD) according to an embodiment of the present invention. Referring to FIG. 13 , the HUD may display the augmented reality guidance screen on the heads-up display through wired/wireless communication with other devices.

일 예로, 증강 현실은 차량 앞유리를 이용한 HUD 또는 별도의 영상 출력 장치를 이용한 영상 오버레이 등을 통해 제공될 수 있으며, 증강 현실 제공부(160)는 이와 같이 현실 영상 또는 유리에 오버레이되는 인터페이스 이미지 등을 생성할 수 있다. 이를 통해 증강 현실 네비게이션 또는 차량 인포테인먼트 시스템 등이 구현될 수 있다.For example, the augmented reality may be provided through a HUD using a vehicle windshield or an image overlay using a separate image output device, etc. can create Through this, an augmented reality navigation system or a vehicle infotainment system may be implemented.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 제어 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라, 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드할 수 있다.Meanwhile, the above-described control method according to various embodiments of the present invention may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing the server or device in which the program is stored.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 제어 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the above-described control method according to various embodiments of the present invention may be implemented as a program and stored in various non-transitory computer readable media to be provided. The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 전자 장치 110 : 저장부
120 : 입력부 130 : 출력부
140 : 횡단 보도 검출부 150 : 신호 종류 정보 판단부
155 : 운행 상태 판단부 160 : 증강 현실 제공부 170 : 제어부 180 : 통신부
190 : 센싱부 195 : 전원부
100: electronic device 110: storage unit
120: input unit 130: output unit
140: crosswalk detection unit 150: signal type information determination unit
155: driving state determination unit 160: augmented reality providing unit 170: controller 180: communication unit
190: sensing unit 195: power unit

Claims (22)

전자 장치의 제어 방법에 있어서,
차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하는 단계;
상기 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단하는 단계;
상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태를 유지하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하는 단계;
상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태에서 출발하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 경고하기 위한 제2 객체를 생성하는 단계; 및
상기 제1 객체 또는 상기 제2 객체를 증강 현실을 통해 출력하는 단계;를 포함하는 제어 방법.
A method for controlling an electronic device, comprising:
detecting a crosswalk from image data captured by a camera while the vehicle is being driven;
determining signal type information by using image data of a signal region of a traffic light among the image data;
generating a first object for recognizing that the crosswalk is located in front of the vehicle when the vehicle maintains a stopped state in a state in which the signal type information is a stop signal;
generating a second object for warning that the crosswalk is located in front of the vehicle when the vehicle starts from a stopped state in a state in which the signal type information is a stop signal; and
and outputting the first object or the second object through augmented reality.
제1항에 있어서,
상기 차량의 정차 상태 여부를 판단하는 단계;를 더 포함하고,
상기 생성하는 단계는,
상기 차량이 정차 상태로 판단되면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 상기 제1 객체를 생성하는 것을 특징으로 하는 제어 방법.
According to claim 1,
Further comprising; determining whether the vehicle is in a stopped state;
The generating step is
When it is determined that the vehicle is in a stopped state, the first object for recognizing that the crosswalk is located in front of the vehicle is generated.
삭제delete 제1항에 있어서,
상기 제1, 제2 객체를 서로 상이한 색깔로 구별되는 것을 특징으로 하는 제어 방법.
According to claim 1,
The control method, characterized in that the first and second objects are distinguished by different colors.
제1항에 있어서,
상기 제1, 제2 객체는 색의 투명도에 관련된 알파 채널을 포함하는 형태로 구현되고,
상기 알파 채널에 따라 상기 제1, 제2 객체는 투명 영역을 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The first and second objects are implemented in a form including an alpha channel related to color transparency,
The control method according to claim 1, wherein the first and second objects include a transparent region according to the alpha channel.
제1항에 있어서,
상기 촬영된 영상 데이터를 이용하여 상기 횡단 보도에 보행자의 존재 여부를 판단하는 단계; 및
상기 보행자의 존재 여부를 나타내는 객체를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
determining whether there is a pedestrian in the crosswalk by using the photographed image data; and
The control method further comprising; generating an object indicating the presence of the pedestrian.
제6항에 있어서,
상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량의 전방 차량이 출발하는 경우, 전방 차량 출발 안내를 수행하지 않도록 제어하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
7. The method of claim 6,
When the vehicle in front of the vehicle starts in a state where a pedestrian is present in the crosswalk, controlling the vehicle in front to not perform departure guidance.
제6항에 있어서,
상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량이 출발하는 경우, 상기 횡단 보도에 보행자가 존재함을 경고하기 위한 안내를 수행하도록 제어하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
7. The method of claim 6,
When the vehicle starts in a state in which a pedestrian is present in the crosswalk, controlling to perform a guide to warn that a pedestrian is present in the crosswalk; Control method comprising a further comprising.
제1항에 있어서,
상기 제1, 제2객체의 표출 위치는,
상기 증강 현실에서 횡단 보도가 위치하는 영역인 것을 특징으로 하는 제어 방법.
According to claim 1,
The display positions of the first and second objects are,
Control method, characterized in that the area where the crosswalk is located in the augmented reality.
제1항에 있어서,
상기 출력하는 단계는,
카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출하는 단계;
상기 카메라 파라미터를 기초로 상기 카메라의 촬영 영상에 대한 가상 3D(3-Dimensional) 공간을 생성하는 단계; 및
상기 가상 3D 공간에 상기 생성된 객체를 위치시키는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The output step is
calculating camera parameters by performing calibration on the camera;
generating a virtual 3D (3-dimensional) space for the captured image of the camera based on the camera parameter; and
and locating the created object in the virtual 3D space.
전자 장치에 있어서,
화면을 표시하는 디스플레이부;
차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도가 검출되면, 상기 검출된 횡단 보도를 나타내는 객체를 생성하는 객체 생성부; 및
상기 생성된 객체를 증강 현실을 통해 출력하도록 상기 디스플레이부를 제어하는 제어부;를 포함하되,
상기 제어부는,
상기 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단하고,
상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태를 유지하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하고, 상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태에서 출발하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 경고하기 위한 제2 객체를 생성하도록 상기 객체 생성부를 제어하는 것을 특징으로 하는 전자 장치.
In an electronic device,
a display unit for displaying a screen;
When a crosswalk is detected from the image data captured by the camera while the vehicle is driving, an object generator for generating an object representing the detected crosswalk; and
Containing a; control unit for controlling the display unit to output the generated object through augmented reality;
The control unit is
Determining signal type information by using the image data of the signal area part of the traffic light among the image data,
When the vehicle maintains a stopped state in a state in which the signal type information is a stop signal, a first object is created for recognizing that the crosswalk is located in front of the vehicle, and the signal type information is a stop signal When the vehicle starts in a stopped state, the electronic device according to claim 1, wherein the object generating unit is controlled to generate a second object for warning that the crosswalk is located in front of the vehicle.
제11항에 있어서,
상기 제어부는,
상기 차량의 정차 상태 여부를 판단하고,
상기 차량이 정차 상태로 판단되면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하도록 상기 객체 생성부를 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The control unit is
Determining whether the vehicle is in a stopped state,
When it is determined that the vehicle is in a stopped state, the electronic device of claim 1, wherein the object generating unit is controlled to generate a first object for recognizing that the crosswalk is located in front of the vehicle.
삭제delete 제11항에 있어서,
상기 제1, 제2 객체를 서로 상이한 색깔로 구별되는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The electronic device of claim 1, wherein the first and second objects are distinguished by different colors.
제11항에 있어서,
상기 제1, 제2 객체는 색의 투명도에 관련된 알파 채널을 포함하는 형태로 구현되고,
상기 알파 채널에 따라 상기 제1, 제2 객체는 투명 영역을 포함하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The first and second objects are implemented in a form including an alpha channel related to color transparency,
The electronic device of claim 1, wherein the first and second objects include a transparent region according to the alpha channel.
제11항에 있어서,
상기 제어부는,
상기 촬영된 영상 데이터를 이용하여 상기 횡단 보도에 보행자의 존재 여부를 판단하고, 상기 보행자의 존재 여부를 나타내는 객체를 생성하도록 상기 객체 생성부를 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The control unit is
The electronic device of claim 1, wherein the object generator is configured to determine whether a pedestrian exists in the crosswalk by using the photographed image data, and to generate an object indicating whether or not the pedestrian is present.
제16항에 있어서,
상기 제어부는,
상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량의 전방 차량이 출발하는 경우, 전방 차량 출발 안내를 수행하지 않도록 제어하는 것을 특징으로 하는 전자 장치.
17. The method of claim 16,
The control unit is
The electronic device of claim 1, wherein when a vehicle in front of the vehicle starts in a state in which a pedestrian is present in the crosswalk, the electronic device is configured to control not to perform a departure guidance of the vehicle ahead.
제16항에 있어서,
상기 제어부는,
상기 횡단 보도에 보행자가 존재하는 상태에서 상기 차량이 출발하는 경우, 상기 횡단 보도에 보행자가 존재함을 경고하기 위한 안내를 수행하도록 제어하는 단계;를 더 포함하는 것을 특징으로 하는 전자 장치.
17. The method of claim 16,
The control unit is
The electronic device of claim 1, further comprising: when the vehicle starts in a state in which a pedestrian is present in the crosswalk, controlling to perform a guide to warn that a pedestrian is present in the crosswalk.
제11항에 있어서,
상기 제1, 제2객체의 표출 위치는,
상기 증강 현실에서 횡단 보도가 위치하는 영역인 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The display positions of the first and second objects are,
The electronic device, characterized in that the area where the crosswalk is located in the augmented reality.
제11항에 있어서,
상기 제어부는,
카메라에 대한 캘리브레이션(Calibration)을 수행하여 카메라 파라미터를 산출하고, 상기 카메라 파라미터를 기초로 상기 카메라의 촬영 영상에 대한 가상 3D(3-Dimensional) 공간을 생성하며, 상기 가상 3D 공간에 상기 생성된 객체를 위치시키도록 제어하는 것을 특징으로 하는 전자 장치.
12. The method of claim 11,
The control unit is
A camera parameter is calculated by performing calibration on the camera, a virtual 3D (3-dimensional) space is generated for the captured image of the camera based on the camera parameter, and the generated object is located in the virtual 3D space. Electronic device, characterized in that the control to position.
전자 장치와 결합되어,
차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하는 단계;
상기 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단하는 단계;
상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태를 유지하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하는 단계;
상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태에서 출발하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 경고하기 위한 제2 객체를 생성하는 단계; 및
상기 제1 객체 또는 상기 제2 객체를 증강 현실을 통해 출력하는 단계;를 실행시키는 기록 매체에 저장된 컴퓨터 프로그램.
combined with electronic devices,
detecting a crosswalk from image data captured by a camera while the vehicle is being driven;
determining signal type information by using image data of a signal region of a traffic light among the image data;
generating a first object for recognizing that the crosswalk is located in front of the vehicle when the vehicle maintains a stopped state in a state in which the signal type information is a stop signal;
generating a second object for warning that the crosswalk is located in front of the vehicle when the vehicle starts from a stopped state in a state in which the signal type information is a stop signal; and
A computer program stored in a recording medium for executing; outputting the first object or the second object through augmented reality.
전자 장치의 제어 방법을 실행하기 위한 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 기록 매체에 있어서,
차량의 운행 중 카메라에서 촬영된 영상 데이터로부터 횡단 보도를 검출하는 단계;
상기 영상 데이터 중 신호등의 신호 영역 부분의 영상 데이터를 이용하여 신호 종류 정보를 판단하는 단계;
상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태를 유지하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 인식시키기 위한 제1 객체를 생성하는 단계;
상기 신호 종류 정보가 정지 신호인 상태에서 상기 차량이 정차 상태에서 출발하면, 상기 횡단 보도가 상기 차량의 전방에 위치함을 경고하기 위한 제2 객체를 생성하는 단계; 및
상기 제1 객체 또는 상기 제2 객체를 증강 현실을 통해 출력하는 단계;를 포함하는 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium storing a computer program for executing a control method of an electronic device,
detecting a crosswalk from image data captured by a camera while the vehicle is being driven;
determining signal type information by using image data of a signal region of a traffic light among the image data;
generating a first object for recognizing that the crosswalk is located in front of the vehicle when the vehicle maintains a stopped state in a state in which the signal type information is a stop signal;
generating a second object for warning that the crosswalk is located in front of the vehicle when the vehicle starts from a stopped state in a state in which the signal type information is a stop signal; and
A computer-readable recording medium comprising a; outputting the first object or the second object through augmented reality.
KR1020150035744A 2014-12-01 2015-03-16 Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium KR102383425B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201510867498.6A CN105654778B (en) 2014-12-01 2015-12-01 Electronic device and control method thereof
CN201811590078.8A CN110091798B (en) 2014-12-01 2015-12-01 Electronic device, control method of electronic device, and computer-readable storage medium
US14/955,762 US9846969B2 (en) 2014-12-01 2015-12-01 Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN202010541932.2A CN111710189B (en) 2014-12-01 2015-12-01 Control method for electronic device, and recording medium
CN202010541922.9A CN111681455B (en) 2014-12-01 2015-12-01 Control method of electronic device, and recording medium
US15/814,150 US10497178B2 (en) 2014-12-01 2017-11-15 Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US16/670,014 US11030816B2 (en) 2014-12-01 2019-10-31 Electronic apparatus, control method thereof, computer program, and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140170051 2014-12-01
KR1020140170051 2014-12-01

Publications (2)

Publication Number Publication Date
KR20160065722A KR20160065722A (en) 2016-06-09
KR102383425B1 true KR102383425B1 (en) 2022-04-07

Family

ID=56138965

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150035744A KR102383425B1 (en) 2014-12-01 2015-03-16 Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium

Country Status (2)

Country Link
KR (1) KR102383425B1 (en)
CN (4) CN111710189B (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10150414B2 (en) * 2016-07-08 2018-12-11 Ford Global Technologies, Llc Pedestrian detection when a vehicle is reversing
CN107784864A (en) * 2016-08-26 2018-03-09 奥迪股份公司 Vehicle assistant drive method and system
KR20180084556A (en) * 2017-01-17 2018-07-25 팅크웨어(주) Method, apparatus, electronic apparatus, computer program and computer readable recording medium for providing driving guide using a photographed image of a camera
CN106971626A (en) * 2017-05-12 2017-07-21 南通海鑫信息科技有限公司 A kind of alarming method for power of pedestrian running red light
KR101966384B1 (en) * 2017-06-29 2019-08-13 라인 가부시키가이샤 Method and system for image processing
DE102017216100A1 (en) * 2017-09-12 2019-03-14 Volkswagen Aktiengesellschaft A method, apparatus and computer readable storage medium having instructions for controlling a display of an augmented reality display device for a motor vehicle
AU2019205611A1 (en) * 2018-01-02 2020-01-30 Lumus Ltd. Augmented reality displays with active alignment and corresponding methods
CN110634324A (en) * 2018-06-22 2019-12-31 上海擎感智能科技有限公司 Vehicle-mounted terminal based reminding method and system for courtesy pedestrians and vehicle-mounted terminal
JP7345128B2 (en) * 2019-05-20 2023-09-15 パナソニックIpマネジメント株式会社 Pedestrian devices and traffic safety support methods
CN113978468A (en) * 2021-12-16 2022-01-28 诺博汽车系统有限公司 Vehicle speed control method, device, equipment and medium based on water accumulation environment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130293582A1 (en) * 2012-05-07 2013-11-07 Victor Ng-Thow-Hing Method to generate virtual display surfaces from video imagery of road based scenery

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178505A (en) * 1995-12-27 1997-07-11 Pioneer Electron Corp Drive assist system
JP2004257979A (en) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd Navigation apparatus
WO2005088970A1 (en) * 2004-03-11 2005-09-22 Olympus Corporation Image generation device, image generation method, and image generation program
JP2006127055A (en) * 2004-10-27 2006-05-18 Denso Corp Information presentation device for vehicle
JP4321821B2 (en) * 2005-01-28 2009-08-26 アイシン・エィ・ダブリュ株式会社 Image recognition apparatus and image recognition method
JP2007193652A (en) * 2006-01-20 2007-08-02 Hitachi Ltd Navigation apparatus
JP4267657B2 (en) * 2006-10-31 2009-05-27 本田技研工業株式会社 Vehicle periphery monitoring device
JP2008143387A (en) * 2006-12-11 2008-06-26 Fujitsu Ten Ltd Surrounding area monitoring device and surrounding area monitoring method
US8384532B2 (en) * 2009-04-02 2013-02-26 GM Global Technology Operations LLC Lane of travel on windshield head-up display
JP5206868B2 (en) * 2009-04-27 2013-06-12 トヨタ自動車株式会社 Driving assistance device
JP2011086097A (en) * 2009-10-15 2011-04-28 Daihatsu Motor Co Ltd Obstacle detection device
JP5462609B2 (en) * 2009-12-09 2014-04-02 富士重工業株式会社 Stop line recognition device
WO2011108218A1 (en) * 2010-03-01 2011-09-09 本田技研工業株式会社 Surrounding area monitoring device for vehicle
JP5035371B2 (en) * 2010-03-15 2012-09-26 アイシン精機株式会社 Crosswalk detection device, crosswalk detection system, crosswalk detection method and program
KR101759975B1 (en) * 2011-01-03 2017-07-24 팅크웨어(주) Navigation for vehicel and land departure warning method of navigation for vehicel
JP2012155655A (en) * 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program
CN102519475A (en) * 2011-12-12 2012-06-27 杨志远 Intelligent navigation method and equipment based on augmented reality technology
JP5893054B2 (en) * 2012-01-17 2016-03-23 パイオニア株式会社 Image processing apparatus, image processing server, image processing method, image processing program, and recording medium
JP5872923B2 (en) * 2012-02-22 2016-03-01 株式会社マイクロネット AR image processing apparatus and method
CN202815590U (en) * 2012-07-30 2013-03-20 中国航天科工集团第三研究院第八三五七研究所 Control system for mini self-driving unmanned vehicle
CN102951089B (en) * 2012-08-20 2015-04-01 上海工程技术大学 Vehicle-mounted navigation and active safety system based on mobile equipment camera
CN103065470B (en) * 2012-12-18 2014-12-17 浙江工业大学 Detection device for behaviors of running red light of vehicle based on machine vision with single eye and multiple detection faces
CN103105174B (en) * 2013-01-29 2016-06-15 四川长虹佳华信息产品有限责任公司 A kind of vehicle-mounted outdoor scene safety navigation method based on AR augmented reality
US9047703B2 (en) * 2013-03-13 2015-06-02 Honda Motor Co., Ltd. Augmented reality heads up display (HUD) for left turn safety cues
CN104102678B (en) * 2013-04-15 2018-06-05 腾讯科技(深圳)有限公司 The implementation method and realization device of augmented reality
CN203651606U (en) * 2013-11-19 2014-06-18 浙江吉利汽车研究院有限公司 Vehicle display device preventing blind zones
KR101388872B1 (en) * 2014-03-17 2014-04-23 안병준 Traffic safety system for pedestrian crossing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130293582A1 (en) * 2012-05-07 2013-11-07 Victor Ng-Thow-Hing Method to generate virtual display surfaces from video imagery of road based scenery

Also Published As

Publication number Publication date
CN105654778A (en) 2016-06-08
CN110091798A (en) 2019-08-06
CN111710189B (en) 2023-09-08
CN110091798B (en) 2022-12-16
KR20160065722A (en) 2016-06-09
CN111681455B (en) 2023-02-03
CN111710189A (en) 2020-09-25
CN111681455A (en) 2020-09-18
CN105654778B (en) 2020-07-10

Similar Documents

Publication Publication Date Title
KR102383425B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102348127B1 (en) Electronic apparatus and control method thereof
US11030816B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
CN108944454B (en) Electronic device, control method of electronic device, and computer-readable recording medium
US20230048230A1 (en) Method for displaying lane information and apparatus for executing the method
US11049327B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
KR102233391B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102406491B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102406490B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
KR102158167B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102276082B1 (en) Navigation device, black-box and control method thereof
KR102371620B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR102299501B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR20200070101A (en) Method for displaying lane information and apparatus for executing the method
KR102299499B1 (en) Electronic apparatus and control method thereof
KR102299500B1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)