KR20200082317A - 영상 처리 장치 및 그 동작 방법 - Google Patents

영상 처리 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR20200082317A
KR20200082317A KR1020180172787A KR20180172787A KR20200082317A KR 20200082317 A KR20200082317 A KR 20200082317A KR 1020180172787 A KR1020180172787 A KR 1020180172787A KR 20180172787 A KR20180172787 A KR 20180172787A KR 20200082317 A KR20200082317 A KR 20200082317A
Authority
KR
South Korea
Prior art keywords
image processing
vehicle
processing apparatus
image
camera
Prior art date
Application number
KR1020180172787A
Other languages
English (en)
Other versions
KR102151163B1 (ko
Inventor
이상국
Original Assignee
주식회사대성엘텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사대성엘텍 filed Critical 주식회사대성엘텍
Priority to KR1020180172787A priority Critical patent/KR102151163B1/ko
Publication of KR20200082317A publication Critical patent/KR20200082317A/ko
Application granted granted Critical
Publication of KR102151163B1 publication Critical patent/KR102151163B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

일 실시예에 따른 영상 처리 장치는 제1 차량에 탑재되어 차량 외부의 영상 정보를 획득하는 카메라, 영상 정보를 표시하는 디스플레이, 영상 정보를 송수신할 수 있는 통신부, 통신부를 통해 전방의 소정 거리 내에 위치하는 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 디스플레이의 전방 영상 영역을 통해 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하는 제어부를 포함할 수 있다.

Description

영상 처리 장치 및 그 동작 방법{VIDEO PROCESSING APPARATUS AND OPERATING METHOD FOR THE SAME}
본 출원에 의해 개시되는 발명은 영상 처리 장치 및 그 동작 방법에 관한 것이다.
차량 운전 중에 전방 또는 후방에 화물차와 같은 대형 차량이 있는 경우, 대형 차량에 의해 그 이후의 시야가 방해되는 불편함이 있다. 이러한 시야의 방해는 주행 도로에 대한 예측 및 사전적 대응을 어렵게 한다. 이로 인해 후방의 운전자는 전방의 대형 차량에 대한 추월을 유발하는데, 편도 1차선 도로에서의 추월은 상당한 위험을 초래하여 많은 사상자를 발생시킨다.
최근 들어, 전방 또는 후방의 차량으로부터 시야를 확보할 수 있는 방안에 대한 수요가 증가하고 있다.
일 실시예에 따르면, 소정의 거리 내 다른 차량의 카메라에서 기록한 영상 정보를 실시간으로 표시하는 영상 처리 장치가 제공될 수 있다.
해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 양상에 따르면, 제1 차량에 탑재되어 차량 외부의 영상 정보를 획득하는 카메라, 영상 정보를 표시하는 디스플레이, 영상 정보를 송수신할 수 있는 통신부, 통신부를 통해 전방의 소정 거리 내에 위치하는 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 디스플레이의 전방 영상 영역을 통해 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하는 제어부를 포함하는 영상 처리 장치가 제공될 수 있다.
제어부는 제2 차량의 전방에 있는 제3 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신할 수 있다.
제어부는 전방의 소정의 거리를 조절하여, 제2 차량의 전방에 있는 제3 차량의 영상 처리 장치를 탐지할 수 있다.
제어부는 통신부를 통해 제2 차량의 영상 처리 장치와 통신하여 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득하고, 제2 차량의 영상 처리 장치의 카메라 정보에 기초하여, 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 획득하거나 제2 차량의 전방에 위치하는 제3 차량의 영상 처리 장치를 탐지할 수 있다.
카메라 상태 정보는, 제2 차량의 영상 처리 장치의 전방 카메라 구비 여부, 제2 차량의 영상 처리 장치의 전방 카메라 작동 상태 및 제2 차량의 영상 처리 장치의 전방 카메라 촬영 화질 등을 포함할 수 있다.
제어부는, 통신부를 통해 후방의 소정 거리 내에 위치하는 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 수신하고,
디스플레이의 전방 영상 영역을 통해 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하고, 디스플레이의 후방 영상 영역을 통해 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 표시할 수 있다.
제어부는 디스플레이의 전방 영상 영역 및 후방 영상 영역을 동시에 활성화할 수 있다.
다른 일 양상에 따르면, 제1 영상 처리 장치의 전방 카메라를 통해 전방 영상 정보를 획득하는 제1 차량, 제1 차량의 후방에 위치하고, 제2 영상 처리 장치의 후방 카메라를 통해 후방 영상 정보를 획득하는 제2 차량, 제1 영상 처리 장치가 획득한 전방 영상 정보 및 제2 영상 처리 장치가 획득한 후방 영상 정보를 수신하고, 제1 영상 처리 장치에 제2 영상 처리 장치가 획득한 후방 영상 정보를 송신하고, 제2 차량에 제1 영상 처리 장치가 획득한 전방 영상 정보를 송신하는 서버를 포함하는 시스템이 제공될 수 있다.
또 다른 일 양상에 따르면, 제1 소정 거리 내 제1 차량의 영상 처리 장치를 감지하는 단계, 제1 차량의 영상 처리 장치의 카메라 상태 정보를 획득하는 단계, 제1 차량의 영상 처리 장치의 카메라 상태 정보에 기초하여, 제1 차량의 영상 처리 장치에서 획득한 영상 정보를 획득하거나 또는 제1 소정 거리보다 큰 제2 소정 거리 내 제2 차량의 영상 처리 장치를 탐지하는 단계를 포함하는 영상 표시 방법이 제공될 수 있다.
또 다른 일 양상에 따르면, 상술한 영상 표시 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.
일 실시예에 따르면, 영상 처리 장치는 소정 거리 내 다른 차량의 카메라에서 기록된 영상 정보를 실시간으로 표시함으로써 다른 차량의 위치에서 확보한 시야를 운전자에게 제공할 수 있다.
실시예들에 따른 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은, 일 실시예에 따른 영상 처리 장치의 블록도이다.
도 2는, 도 1에 따른 영상 처리 장치를 포함하는 영상 처리 시스템에 관한 도면이다.
도 3은, 도 1에 따른 영상 처리 장치가 탑재된 다수의 차량들에 관한 도면이다.
도 4는, 도 1에 따른 영상 처리 장치가 표시하는 화면에 관한 도면이다.
도 5는, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량의 영상 정보를 표시하는 방법에 관한 순서도이다.
도 6은, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량의 카메라 상태 정보에 기초하여 차량의 영상 정보를 표시하는 방법에 관한 순서도이다,
도 7은, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량들의 전방 영상 정보 및 후방 영상 정보를 표시하는 방법에 관한 순서도이다.
실시예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
도 1은, 일 실시예에 따른 영상 처리 장치(200)의 블록도이다. 도 1에 도시된 바와 같이, 일 실시예에 따른 영상 처리 장치(200)는 센싱부(230), 제어부(260), 출력부(210) 및 A/V 입력부(220) 및 메모리(240)를 더 포함할 수 있다.
그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 영상 처리 장치(200)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 영상 처리 장치(200)는 구현될 수 있다.
영상 처리 장치(200)는 차량에 탑재되어 차량 외부의 영상을 기록 및 표시할 수 있다. 영상 처리 장치(200)는 배치되는 방향에 따라 차량 전방의 영상 또는 후방의 영상을 기록 및 표시할 수 있다. 영상 처리 장치(200)는 이 밖에도 차량의 운행 정보 등을 기록할 수 있다. 영상 처리 장치(200)는 획득한 영상을 통신부(250)를 통해 외부의 전자 기기와 공유할 수 있다. 예를 들면, 영상 처리 장치(200)는 사고 시 영상 및 운행 정보의 기록을 위한 차량용 블랙박스일 수 있다.
출력부(210)는, 제어부(260)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(212) 및 음향 출력부(214) 등이 포함될 수 있다.
디스플레이부(212)는 사용자 인터페이스를 표시할 수 있다. 또한, 일 실시예에 따른 디스플레이부(212)는 사용자 인터페이스를 통해 획득된 사용자 입력을 기초로 수행한 동작의 실행 결과를 표시할 수도 있다.
디스플레이부(212)는 제어부(260)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(212)는 촬영한 영상 정보 및 차량 관련 정보를 표시할 수 있다.
여기서, 촬영한 영상 정보는 카메라(224)를 통해 획득한 차량의 전방, 후방 또는 카메라(224)의 방향에 따른 영상이다. 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부(212)는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.
음향 출력부(214)는 오디오 데이터를 출력한다. 또한, 음향 출력부(214)는 영상 처리 장치(200)에서 수행되는 기능(예를 들어, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(214)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(214)는 차량 내부 뿐만 아니라 차량 외부로 알림음을 출력할 수 있다.
A/V(Audio/Video) 입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(224)와 마이크로폰(222) 등이 포함될 수 있다.
카메라(224)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(260) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(224)에서 처리된 화상 프레임은 메모리(240)에 저장되거나 통신부(250)를 통하여 외부로 전송될 수 있다. 카메라(224)는 영상 처리 장치(200)의 구성 태양에 따라 2개 이상이 구비되어 각각 상이한 방향을 촬영할 수 있다.
카메라(224)는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(260)에 전달할 수 있다. 카메라(224)에 포함되는 프로세서는, 제어부(260)의 제어를 받을 수 있다.
카메라(224)는 스테레오 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
카메라(224)는 TOF(Time of Flight) 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
제어부(260)는 카메라(224)로부터 전달받은 영상을 통신부(250)를 통해 외부의 전자기기에 전송할 수 있다. 외부의 전자기기는 다른 차량에 탑재된 영상 처리 장치(200)일 수 있고, 또는 다른 차량에 탑재된 영상 처리 장치(200)와 통신할 수 있는 서버(300)일 수 있다.
마이크로폰(222)은, 차량 내에서 발생하는 음성 신호를 감지할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(222)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
마이크로폰(222)은 복수일 수 있고, 각 마이크로폰(222)이 음성 신호를 감지하는 위치는 상이하게 배치될 수 있다.
센싱부(230)는 차량 내에 위치한 사용자의 입력을 감지한다. 예를 들어, 센싱부(230)는 기 설정된 감지 범위 내의 사용자의 움직임을 감지할 수 있다. 센싱부(230)는 사용자의 입력이 감지됨에 따라, 차량 내에서의 사용자의 위치 정보 및 차량의 주행 상태 정보를 획득한다
센싱부(230)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. 각 센싱부를 통해 감지된 정보들은 메모리에 기록된다. 제어부는 각 센싱부를 통해 감지한 정보들로부터 차량의 운행 상태를 판단할 수 있다.
제어부(260)는 통상적으로 영상 처리 장치(200)의 전반적인 동작을 제어한다. 예를 들어, 제어부(260)는, 메모리(240)에 저장된 프로그램들을 실행함으로써, 센싱부(230), 출력부(210), A/V 입력부(220) 및 메모리(240) 등을 전반적으로 제어할 수 있다.
제어부(260)는 사용자의 위치 정보 및 차량의 주행 상태 정보를 기초로 화면 구성 및 입력 수단 중 적어도 하나에 따라 분류되는 복수의 사용자 인터페이스들 중 어느 하나를 선택한다.
메모리(240)는 제어부(260)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다.
일 실시예에 따른 메모리(240)는 복수의 운영체제를 저장할 수 있다. 또한, 메모리(240)는 복수의 운영체제 각각에서 실행되는 애플리케이션을 저장할 수 있다.
메모리(240)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(242) 및 터치 스크린 모듈(244) 등으로 분류될 수 있다.
UI 모듈(242)은, 복수의 사용자 인터페이스들 중 선택된 사용자 인터페이스 및 그래픽 사용자 인터페이스 등을 제공할 수 있다. 터치 스크린 모듈(244) 은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(260)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(244)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(244)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. 또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리(240), 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 영상 처리 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리(240)에 저장되고, 프로세서에서 실행될 수 있다.
통신부(250)는 다른 차량에 탑재된 영상 처리 장치(200) 또는 다른 차량에 탑재된 영상 처리 장치(200)와 통신할 수 있는 서버(300)와 통신할 수 있다. 통신부(250)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다. 통신부(250)는 영상 처리 장치(200)가 탑재되는 차량 내에 구비되는 전자 제어 장치(ECU) 들과 CAN 기반 네트워크를 통해 통신할 수 있다.
도 2는, 도 1에 따른 영상 처리 장치를 포함하는 영상 처리 시스템에 관한 도면이다. 도 2를 참조하면, 다수의 차량들과 서버(300)는 영상 정보를 공유하는 시스템을 구축할 수 있다. 제1 차량(100-1) 및 제2 차량(100-2)들은 각각 영상 정보를 획득하는 영상 처리 장치(200-1, 200-2)를 구비할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 통신을 통해 소정의 거리 내에 각자의 존재를 탐지할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서로 직접 통신하여 각자의 위치를 파악할 수 있다. 또는 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)를 통해 통신하여 각자의 위치를 파악할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 영상 정보를 공유할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 직접적으로 상호 간의 통신을 통해 영상 정보를 공유할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1)는 제2 차량(100-2)의 영상 처리 장치(200-2)에게 영상 정보를 요청할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1)는 요청에 응답하여 제2 차량(100-2)의 영상 처리 장치(200-2)에게 영상 정보를 전송할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 상호 간의 직접적인 통신을 통해 영상 정보를 신속하게 공유할 수 있다. 이로 인해 제1 차량(100-1)의 영상 처리 장치(200-1)는 제2 차량(100-2)의 영상 처리 장치(200-2)에서 획득한 영상 정보를 실시간으로 표시할 수 있다.
또는 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)를 통해 영상 정보를 공유할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1)는 주기적으로 또는 사용자 입력에 따라 획득한 영상 정보를 서버(300)에 업로드할 수 있다. 서버(300)는 획득한 영상 정보를 자체 저장부에 기록할 수 있다. 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)에게 제1 차량(100-1)의 영상 처리 장치(200-1)가 획득한 영상 정보를 요청할 수 있다. 서버(300)는 제2 차량(100-2)의 영상 처리 장치(200-2)의 요청에 따라 제1 차량(100-1)의 영상 처리 장치(200-1)가 획득한 영상 정보를 제2 차량(100-2)의 영상 처리 장치(200-2)에게 전송할 수 있다. 서버(300)를 통한 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2) 간 통신을 통해 영상 처리 시스템은 각 차량의 영상 처리 장치가 획득한 영상 정보를 안정적으로 보관할 수 있고, 체계적으로 관리할 수 있다.
도 3은, 도 1에 따른 영상 처리 장치가 탑재된 다수의 차량들에 관한 도면이다. 도 3을 참조하면, 제1 차량(10)의 전방에는 제2 차량(20)이 있고, 제1 차량(10)의 후방에는 제3 차량이 있으며, 제1 차량(10) 및 제2 차량(20)의 전방에는 제4 차량(40)이 있다.
제1 차량(10)은 제2 차량(20)에 의해 전방의 시야 확보에 방해를 받는다. 또한, 제1 차량(10)은 제3 차량(30)에 의해 후방의 시야 확보에 방해를 받는다.
각 차량들에 탑재된 영상 처리 장치(200)들은 전방 영상 정보를 촬영하는 전방 카메라(224) 및 후방 영상 정보를 촬영하는 후방 카메라(224)를 구비할 수 있다.
제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 전방 카메라(224)에서 촬영한 전방 영상 정보를 수신할 수 있고, 제2 차량(20)의 영상 처리 장치(25)의 전방 카메라(224)에서 촬영한 전방 영상 정보를 표시함으로써 사용자에게 방해 받지 않은 전방 시야를 제공할 수 있다.
한편, 제2 차량(20)은 제4 차량(40)에 의해 전방 시야 확보에 방해를 받는다. 따라서, 제2 차량(20)의 영상 처리 장치(25)는 제4 차량(40)의 영상 처리 장치에서 획득한 전방 영상 정보를 수신하고, 표시할 수 있다.
제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 전방 영상 정보를 수신하더라도, 제4 차량(40)에 의해 전방의 물체(50)에 대한 시야를 확보하기 어렵다. 따라서 제1 차량(10)의 영상 처리 장치(15)는 제4 차량(40)의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 표시함으로써 물체에 대한 시야를 확보할 수 있다.
또한 제1 차량(10)의 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)의 후방 카메라(224)에서 촬영한 후방 영상 정보를 수신할 수 있고, 제3 차량(30)의 영상 처리 장치(35)의 후방 카메라(224)에서 촬영한 후방 영상 정보를 표시함으로써 사용자에게 방해 받지 않은 후방 시야를 제공할 수 있다.
제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라(224) 상태에 기초하여 제2 차량(20)의 영상 처리 장치(25)가 획득한 전방 영상 정보의 수신 여부를 결정할 수 있고, 제3 차량(30)의 영상 처리 장치(35)의 카메라(224) 상태에 기초하여 제3 차량(30)의 영상 처리 장치(35)가 획득한 후방 영상 정보의 수신 여부를 결정할 수 있다. 이에 대해서는 도 6을 참조하여 더 자세히 후술한다.
도 4는, 도 1에 따른 영상 처리 장치가 표시하는 화면에 관한 도면이다. 도 4를 참조하면, 영상 처리 장치(200)는 디스플레이부(212)를 통해 촬영한 영상을 표시할 수 있다.
디스플레이부(212)는 전방 영상을 표시하는 전방 영상 영역(S1) 및 후방 영상을 표시하는 후방 영상 영역(S2)을 포함할 수 있다. 전방 영상 영역(S1) 및 후방 영상 영역(S2)은 동시에 활성화될 수 있고, 또는 어느 하나만 활성화될 수 있다.
예를 들어, 영상 처리 장치(200)가 후방 영상 정보를 보유하지 않는 경우, 디스플레이부(212)는 후방 영상 영역(S2)을 비활성화하고, 전방 영상 영역(S1)을 통해 전방 영상 정보만 표시할 수 있다.
전방 영상 영역(S1)에서 표시되는 전방 영상은 영상 처리 장치(200)의 카메라(224)를 통해 촬영한 영상일 수 있다. 또는 전방 영상은 예를 들면 도 3의 제1 차량(10)의 전방에 위치하는 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)를 통해 촬영한 전방 영상일 수 있다.
제1 차량(10)의 사용자가 전면 유리창을 통해 확인하는 전방의 시야에는 제2 차량(20)이 포함되어 있으므로, 사용자는 제2 차량(20)의 전방은 확인할 수 없다. 따라서, 사용자는 영상 처리 장치(200)의 전방 영상 영역(S1)을 확인함으로써 제2 차량(20)의 전방까지 확인할 수 있다.
또는 전방 영상은 예를 들면 도 3의 제1 차량(10)의 전방에 위치하는 제4 차량(40)의 카메라(224)를 통해 촬영한 전방 영상일 수도 있다. 즉, 사용자는 원하는 전방의 시야를 확보하기 위해 제2 차량(20)의 전방 영상 또는 제4 차량의 전방 영상을 선택적으로 표시할 수 있다.
또는 미도시하였으나, 전방 영상 영역(S1) 또는 후방 영상 영역(S2)은 각각 복수의 영역으로 제공될 수 있다. 예를 들면, 제2 차량(20)의 전방 영상은 제1 전방 영상 영역을 통해서 표시되고 제4 차량의 전방 영상은 제2 전방 영상 영역을 통해서 표시될 수도 있다.
전방 영상 영역(S1) 및 후방 영상 영역(S2)의 크기는 조절될 수 있다. 전방 영상 영역(S1) 및 후방 영상 영역(S2)은 서로 그 위치가 바뀔 수도 있다.
도 5는, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량의 영상 정보를 표시하는 방법에 관한 순서도이다. 도 5를 참조하면, 영상 처리 장치(200)는 소정의 거리 내 차량에 탑재된 영상 처리 장치(200)를 탐지할 수 있다(S1100). 영상 처리 장치(200)는 통신부(250)를 통해 소정 거리 내 다른 영상 처리 장치(200)의 존재를 탐지할 수 있다.
소정 거리 내 탐지되는 다른 영상 처리 장치(200)는 복수일 수 있다. 영상 처리 장치(200)는 복수의 영상 처리 장치(200)와의 통신을 통해 각 영상 처리 장치(200)의 위치를 파악할 수 있다. 영상 처리 장치(200)는 탐지된 복수의 영상 처리 장치(200)의 위치 정보 및 이격 거리를 표시할 수 있다.
영상 처리 장치(200)는 소정의 거리를 조절할 수 있다. 영상 처리 장치(200)는 탐지한 복수의 영상 처리 장치(200) 중 소정의 거리 이내의 영상 처리 장치(200)에 대해서만 영상 정보를 수신할 수 있다. 또는 영상 처리 장치(200)는 설정된 소정의 거리까지만 통신할 수 있도록 송신 신호의 전력을 조절할 수 있다.
일 실시예에 따르면 소정의 거리는 사용자에 의해 설정되고, 이에 따라 제어부에 의해 조절될 수 있다. 예를 들면, 소정의 거리 내에 도 3의 제2 차량(20)의 영상 처리 장치(25)만이 탐지될 수 있다. 이후 소정의 거리가 증가되면, 도 3의 제4 차량(40)의 영상 처리 장치(45)도 탐지될 수 있다. 소정의 거리를 설정함으로 인해, 영상 처리 장치(200)의 탐지 속도가 향상될 수 있다.
영상 처리 장치(200)는 탐지된 차량의 영상 처리 장치(200)에서 획득한 영상 정보를 수신할 수 있다(S1200). 영상 처리 장치(200)는 탐지된 차량의 영상 처리 장치(200)로부터 직접적으로 영상 정보를 수신할 수 있다. 또는 영상 처리 장치(200)는 서버(300)를 통해 영상 정보를 수신할 수 있다.
영상 처리 장치(200)는 탐지된 복수의 차량의 영상 처리 장치(200) 중에서, 설정된 소정의 거리에 따라, 또는 사용자 선택에 따라 일부의 차량의 영상 처리 장치(200)로부터 영상 정보를 수신할 수 있다.
영상 처리 장치(200)는, 실시간 디스플레이가 가능하도록 탐지된 차량의 영상 처리 장치(200)가 현재 촬영하고 있는 영상 정보를 실시간으로 송신 및 수신할 수 있다. 일 실시예에 따르면 영상 처리 장치(200)는, 실시간 영상 정보뿐만 아니라 소정의 시간 이전에 촬영된 영상 정보도 수신할 수 있다.
영상 처리 장치(200)는 수신한 영상 정보를 디스플레이에 표시할 수 있다(S1300). 영상 처리 장치(200)는 도 4를 통해 상술한 바와 같이 영상 정보를 디스플레이에 표시할 수 있다.
도 6은, 도 1에 따른 영상 처리 장치(200)가 소정 거리 내 차량의 카메라 상태 정보에 기초하여 차량의 영상 정보를 표시하는 방법에 관한 순서도이다. 도 6을 참조하면, 영상 처리 장치(200)는 소정 거리 내 차량을 탐지할 수 있다(S2100). S2100 단계는 S1100 단계에서 상술한 내용을 포함할 수 있다. 예를 들면, 도 3에서 상술한 바와 같이, 제1 차량(10)의 영상 처리 장치(15)는 소정 거리 내 제2 차량(20)의 영상 처리 장치(25)를 탐지할 수 있다.
영상 처리 장치(200)는 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득할 수 있다(S2200). 카메라 상태 정보는 예를 들면, 전방 카메라(224) 및 후방 카메라(224)의 구비 여부, 카메라(224)의 작동 상태, 카메라(224)의 촬영 화질, 카메라(224)의 광각 및 초점 거리 등을 포함할 수 있다.
예를 들면, 도 3에서 상술한 바와 같이, 영상 처리 장치(15)는 통신부(250)를 통해 제2 차량(20)의 영상 처리 장치(25)에게 카메라 상태 정보를 요청하고, 제2 차량(20)의 영상 처리 장치(25)로부터 카메라 상태 정보를 수신할 수 있다.
영상 처리 장치는 카메라 상태 정보가 소정의 조건을 만족하는지 판단할 수 있다(S2300). 소정의 조건이 만족되면, 예를 들면, 도 3에서 상술한 바와 같이 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)가 전방 카메라(224)를 구비하는 경우, 전방 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)가 후방 카메라(224)를 구비하는 경우, 후방 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)가 영상을 획득하는 동작을 수행하는 상태일 때, 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)의 화질이 고화질일 때 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.
영상 처리 장치(15)는 카메라 상태 정보가 소정의 조건을 만족하면, 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 표시할 수 있다(S2400). S2400 단계는 S1300 단계에서 상술한 내용을 포함할 수 있다.
영상 처리 장치(15)는 카메라 상태 정보가 소정의 조건을 만족하지 않으면, 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다(S2500). 소정의 조건이 만족되지 않으면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신하지 않거나, 표시하지 않는다. 영상 처리 장치(15)는 표시할 영상 정보를 획득하기 위해 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다. 이후 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)의 카메라 상태 정보를 획득할 수 있고, 소정의 조건이 만족되는지 판단할 수 있다. 소정의 조건이 만족되면, 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)가 획득한 영상 정보를 표시할 수 있다.
도 7은, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량들의 전방 영상 정보 및 후방 영상 정보를 표시하는 방법에 관한 순서도이다. 도 7을 참조하면, 영상 처리 장치(15)는 소정 거리 내 전방의 제2 차량(20)의 영상 처리 장치(25) 및 후방의 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다(S3100).
영상 처리 장치(15)는 예를 들면, 도 3을 통해 상술한 바와 같이 전방의 제2 차량(20)의 영상 처리 장치(25) 및 후방의 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다. 소정의 거리는 필요에 따라 조절될 수 있다. 전방의 소정 거리 및 후방의 소정 거리는 상이할 수 있다.
영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)로부터 전방 영상 정보를 수신할 수 있다(S3200). 또한, 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)로부터 후방 영상 정보를 수신할 수 있다(S3300).
일 실시예에 따르면, 영상 처리 장치(15), 제2 차량(20)의 영상 처리 장치(25) 및 제3 차량(30)의 영상 처리 장치(35)는 영상 처리 시스템을 구성하는 서버(300)와 통신할 수 있다. 서버(300)는 영상 처리 장치(15), 제2 차량(20)의 영상 처리 장치(25) 및 제3 차량(30)의 영상 처리 장치(35)와의 통신을 통해 각 영상 처리 장치(200) 간의 상대적 위치 정보를 파악할 수 있다.
서버(300)는 각 영상 처리 장치(200) 간의 상대적 위치 정보에 따라, 제2 차량(20)의 영상 처리 장치(25)에서 획득한 전방 영상 정보를 영상 처리 장치(15)에 전송하고, 반대로 영상 처리 장치(15)에서 획득한 후방 영상 정보를 제2 차량(20)의 영상 처리 장치(25)에 전송할 수 있다. 또한, 서버(300)는 제3 차량(30)의 영상 처리 장치(35)에서 획득한 후방 영상 정보를 영상 처리 장치(15)에 전송하고, 반대로 영상 처리 장치(15)에서 획득한 전방 영상 정보를 제2 영상 처리 장치(25)에 전송할 수 있다.
일 실시예에 따르면 영상 처리 장치는 도 6에서 상술한 바와 같이, 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보 및 제3 차량(30)의 영상 처리 장치(35)의 카메라 상태 정보가 각각 소정의 조건을 만족하는지 여부를 판단하고, 이에 따라 전방 영상 정보 및 후방 영상 정보를 수신할 수 있다.
영상 처리 장치(15)는 디스플레이부(212)를 통해 전방 영상 정보를 전방 화면에 표시 및 후방 영상 정보를 후방 화면에 표시할 수 있다(S3400). 디스플레이부(212)는 도 4를 통해 상술한 바와 같이, 전방 영상 영역(S1) 및 후방 영상 영역(S2)을 포함할 수 있다. 영상 처리 장치(15)는 이로써 제2 차량(20) 및 제3 차량(30)의 존재에 방해 받지 않고, 전방 영상 정보 및 후방 영상 정보를 표시할 수 있다.
도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
실시예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
도 1은, 일 실시예에 따른 영상 처리 장치(200)의 블록도이다. 도 1에 도시된 바와 같이, 일 실시예에 따른 영상 처리 장치(200)는 센싱부(230), 제어부(260), 출력부(210) 및 A/V 입력부(220) 및 메모리(240)를 더 포함할 수 있다.
그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 영상 처리 장치(200)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 영상 처리 장치(200)는 구현될 수 있다.
영상 처리 장치(200)는 차량에 탑재되어 차량 외부의 영상을 기록 및 표시할 수 있다. 영상 처리 장치(200)는 배치되는 방향에 따라 차량 전방의 영상 또는 후방의 영상을 기록 및 표시할 수 있다. 영상 처리 장치(200)는 이 밖에도 차량의 운행 정보 등을 기록할 수 있다. 영상 처리 장치(200)는 획득한 영상을 통신부(250)를 통해 외부의 전자 기기와 공유할 수 있다. 예를 들면, 영상 처리 장치(200)는 사고 시 영상 및 운행 정보의 기록을 위한 차량용 블랙박스일 수 있다.
출력부(210)는, 제어부(260)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(212) 및 음향 출력부(214) 등이 포함될 수 있다.
디스플레이부(212)는 사용자 인터페이스를 표시할 수 있다. 또한, 일 실시예에 따른 디스플레이부(212)는 사용자 인터페이스를 통해 획득된 사용자 입력을 기초로 수행한 동작의 실행 결과를 표시할 수도 있다.
디스플레이부(212)는 제어부(260)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(212)는 촬영한 영상 정보 및 차량 관련 정보를 표시할 수 있다.
여기서, 촬영한 영상 정보는 카메라(224)를 통해 획득한 차량의 전방, 후방 또는 카메라(224)의 방향에 따른 영상이다. 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부(212)는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.
음향 출력부(214)는 오디오 데이터를 출력한다. 또한, 음향 출력부(214)는 영상 처리 장치(200)에서 수행되는 기능(예를 들어, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(214)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(214)는 차량 내부 뿐만 아니라 차량 외부로 알림음을 출력할 수 있다.
A/V(Audio/Video) 입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(224)와 마이크로폰(222) 등이 포함될 수 있다.
카메라(224)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(260) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(224)에서 처리된 화상 프레임은 메모리(240)에 저장되거나 통신부(250)를 통하여 외부로 전송될 수 있다. 카메라(224)는 영상 처리 장치(200)의 구성 태양에 따라 2개 이상이 구비되어 각각 상이한 방향을 촬영할 수 있다.
카메라(224)는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(260)에 전달할 수 있다. 카메라(224)에 포함되는 프로세서는, 제어부(260)의 제어를 받을 수 있다.
카메라(224)는 스테레오 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
카메라(224)는 TOF(Time of Flight) 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
제어부(260)는 카메라(224)로부터 전달받은 영상을 통신부(250)를 통해 외부의 전자기기에 전송할 수 있다. 외부의 전자기기는 다른 차량에 탑재된 영상 처리 장치(200)일 수 있고, 또는 다른 차량에 탑재된 영상 처리 장치(200)와 통신할 수 있는 서버(300)일 수 있다.
마이크로폰(222)은, 차량 내에서 발생하는 음성 신호를 감지할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(222)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
마이크로폰(222)은 복수일 수 있고, 각 마이크로폰(222)이 음성 신호를 감지하는 위치는 상이하게 배치될 수 있다.
센싱부(230)는 차량 내에 위치한 사용자의 입력을 감지한다. 예를 들어, 센싱부(230)는 기 설정된 감지 범위 내의 사용자의 움직임을 감지할 수 있다. 센싱부(230)는 사용자의 입력이 감지됨에 따라, 차량 내에서의 사용자의 위치 정보 및 차량의 주행 상태 정보를 획득한다
센싱부(230)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. 각 센싱부를 통해 감지된 정보들은 메모리에 기록된다. 제어부는 각 센싱부를 통해 감지한 정보들로부터 차량의 운행 상태를 판단할 수 있다.
제어부(260)는 통상적으로 영상 처리 장치(200)의 전반적인 동작을 제어한다. 예를 들어, 제어부(260)는, 메모리(240)에 저장된 프로그램들을 실행함으로써, 센싱부(230), 출력부(210), A/V 입력부(220) 및 메모리(240) 등을 전반적으로 제어할 수 있다.
제어부(260)는 사용자의 위치 정보 및 차량의 주행 상태 정보를 기초로 화면 구성 및 입력 수단 중 적어도 하나에 따라 분류되는 복수의 사용자 인터페이스들 중 어느 하나를 선택한다.
메모리(240)는 제어부(260)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다.
일 실시예에 따른 메모리(240)는 복수의 운영체제를 저장할 수 있다. 또한, 메모리(240)는 복수의 운영체제 각각에서 실행되는 애플리케이션을 저장할 수 있다.
메모리(240)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(242) 및 터치 스크린 모듈(244) 등으로 분류될 수 있다.
UI 모듈(242)은, 복수의 사용자 인터페이스들 중 선택된 사용자 인터페이스 및 그래픽 사용자 인터페이스 등을 제공할 수 있다. 터치 스크린 모듈(244) 은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(260)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(244)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(244)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. 또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리(240), 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 영상 처리 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리(240)에 저장되고, 프로세서에서 실행될 수 있다.
통신부(250)는 다른 차량에 탑재된 영상 처리 장치(200) 또는 다른 차량에 탑재된 영상 처리 장치(200)와 통신할 수 있는 서버(300)와 통신할 수 있다. 통신부(250)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다. 통신부(250)는 영상 처리 장치(200)가 탑재되는 차량 내에 구비되는 전자 제어 장치(ECU) 들과 CAN 기반 네트워크를 통해 통신할 수 있다.
도 2는, 도 1에 따른 영상 처리 장치를 포함하는 영상 처리 시스템에 관한 도면이다. 도 2를 참조하면, 다수의 차량들과 서버(300)는 영상 정보를 공유하는 시스템을 구축할 수 있다. 제1 차량(100-1) 및 제2 차량(100-2)들은 각각 영상 정보를 획득하는 영상 처리 장치(200-1, 200-2)를 구비할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 통신을 통해 소정의 거리 내에 각자의 존재를 탐지할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서로 직접 통신하여 각자의 위치를 파악할 수 있다. 또는 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)를 통해 통신하여 각자의 위치를 파악할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 영상 정보를 공유할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 직접적으로 상호 간의 통신을 통해 영상 정보를 공유할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1)는 제2 차량(100-2)의 영상 처리 장치(200-2)에게 영상 정보를 요청할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1)는 요청에 응답하여 제2 차량(100-2)의 영상 처리 장치(200-2)에게 영상 정보를 전송할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 상호 간의 직접적인 통신을 통해 영상 정보를 신속하게 공유할 수 있다. 이로 인해 제1 차량(100-1)의 영상 처리 장치(200-1)는 제2 차량(100-2)의 영상 처리 장치(200-2)에서 획득한 영상 정보를 실시간으로 표시할 수 있다.
또는 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)를 통해 영상 정보를 공유할 수 있다.
제1 차량(100-1)의 영상 처리 장치(200-1)는 주기적으로 또는 사용자 입력에 따라 획득한 영상 정보를 서버(300)에 업로드할 수 있다. 서버(300)는 획득한 영상 정보를 자체 저장부에 기록할 수 있다. 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)에게 제1 차량(100-1)의 영상 처리 장치(200-1)가 획득한 영상 정보를 요청할 수 있다. 서버(300)는 제2 차량(100-2)의 영상 처리 장치(200-2)의 요청에 따라 제1 차량(100-1)의 영상 처리 장치(200-1)가 획득한 영상 정보를 제2 차량(100-2)의 영상 처리 장치(200-2)에게 전송할 수 있다. 서버(300)를 통한 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2) 간 통신을 통해 영상 처리 시스템은 각 차량의 영상 처리 장치가 획득한 영상 정보를 안정적으로 보관할 수 있고, 체계적으로 관리할 수 있다.
도 3은, 도 1에 따른 영상 처리 장치가 탑재된 다수의 차량들에 관한 도면이다. 도 3을 참조하면, 제1 차량(10)의 전방에는 제2 차량(20)이 있고, 제1 차량(10)의 후방에는 제3 차량이 있으며, 제1 차량(10) 및 제2 차량(20)의 전방에는 제4 차량(40)이 있다.
제1 차량(10)은 제2 차량(20)에 의해 전방의 시야 확보에 방해를 받는다. 또한, 제1 차량(10)은 제3 차량(30)에 의해 후방의 시야 확보에 방해를 받는다.
각 차량들에 탑재된 영상 처리 장치(200)들은 전방 영상 정보를 촬영하는 전방 카메라(224) 및 후방 영상 정보를 촬영하는 후방 카메라(224)를 구비할 수 있다.
제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 전방 카메라(224)에서 촬영한 전방 영상 정보를 수신할 수 있고, 제2 차량(20)의 영상 처리 장치(25)의 전방 카메라(224)에서 촬영한 전방 영상 정보를 표시함으로써 사용자에게 방해 받지 않은 전방 시야를 제공할 수 있다.
한편, 제2 차량(20)은 제4 차량(40)에 의해 전방 시야 확보에 방해를 받는다. 따라서, 제2 차량(20)의 영상 처리 장치(25)는 제4 차량(40)의 영상 처리 장치에서 획득한 전방 영상 정보를 수신하고, 표시할 수 있다.
제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 전방 영상 정보를 수신하더라도, 제4 차량(40)에 의해 전방의 물체(50)에 대한 시야를 확보하기 어렵다. 따라서 제1 차량(10)의 영상 처리 장치(15)는 제4 차량(40)의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 표시함으로써 물체에 대한 시야를 확보할 수 있다.
또한 제1 차량(10)의 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)의 후방 카메라(224)에서 촬영한 후방 영상 정보를 수신할 수 있고, 제3 차량(30)의 영상 처리 장치(35)의 후방 카메라(224)에서 촬영한 후방 영상 정보를 표시함으로써 사용자에게 방해 받지 않은 후방 시야를 제공할 수 있다.
제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라(224) 상태에 기초하여 제2 차량(20)의 영상 처리 장치(25)가 획득한 전방 영상 정보의 수신 여부를 결정할 수 있고, 제3 차량(30)의 영상 처리 장치(35)의 카메라(224) 상태에 기초하여 제3 차량(30)의 영상 처리 장치(35)가 획득한 후방 영상 정보의 수신 여부를 결정할 수 있다. 이에 대해서는 도 6을 참조하여 더 자세히 후술한다.
도 4는, 도 1에 따른 영상 처리 장치가 표시하는 화면에 관한 도면이다. 도 4를 참조하면, 영상 처리 장치(200)는 디스플레이부(212)를 통해 촬영한 영상을 표시할 수 있다.
디스플레이부(212)는 전방 영상을 표시하는 전방 영상 영역(S1) 및 후방 영상을 표시하는 후방 영상 영역(S2)을 포함할 수 있다. 전방 영상 영역(S1) 및 후방 영상 영역(S2)은 동시에 활성화될 수 있고, 또는 어느 하나만 활성화될 수 있다.
예를 들어, 영상 처리 장치(200)가 후방 영상 정보를 보유하지 않는 경우, 디스플레이부(212)는 후방 영상 영역(S2)을 비활성화하고, 전방 영상 영역(S1)을 통해 전방 영상 정보만 표시할 수 있다.
전방 영상 영역(S1)에서 표시되는 전방 영상은 영상 처리 장치(200)의 카메라(224)를 통해 촬영한 영상일 수 있다. 또는 전방 영상은 예를 들면 도 3의 제1 차량(10)의 전방에 위치하는 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)를 통해 촬영한 전방 영상일 수 있다.
제1 차량(10)의 사용자가 전면 유리창을 통해 확인하는 전방의 시야에는 제2 차량(20)이 포함되어 있으므로, 사용자는 제2 차량(20)의 전방은 확인할 수 없다. 따라서, 사용자는 영상 처리 장치(200)의 전방 영상 영역(S1)을 확인함으로써 제2 차량(20)의 전방까지 확인할 수 있다.
또는 전방 영상은 예를 들면 도 3의 제1 차량(10)의 전방에 위치하는 제4 차량(40)의 카메라(224)를 통해 촬영한 전방 영상일 수도 있다. 즉, 사용자는 원하는 전방의 시야를 확보하기 위해 제2 차량(20)의 전방 영상 또는 제4 차량의 전방 영상을 선택적으로 표시할 수 있다.
또는 미도시하였으나, 전방 영상 영역(S1) 또는 후방 영상 영역(S2)은 각각 복수의 영역으로 제공될 수 있다. 예를 들면, 제2 차량(20)의 전방 영상은 제1 전방 영상 영역을 통해서 표시되고 제4 차량의 전방 영상은 제2 전방 영상 영역을 통해서 표시될 수도 있다.
전방 영상 영역(S1) 및 후방 영상 영역(S2)의 크기는 조절될 수 있다. 전방 영상 영역(S1) 및 후방 영상 영역(S2)은 서로 그 위치가 바뀔 수도 있다.
도 5는, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량의 영상 정보를 표시하는 방법에 관한 순서도이다. 도 5를 참조하면, 영상 처리 장치(200)는 소정의 거리 내 차량에 탑재된 영상 처리 장치(200)를 탐지할 수 있다(S1100). 영상 처리 장치(200)는 통신부(250)를 통해 소정 거리 내 다른 영상 처리 장치(200)의 존재를 탐지할 수 있다.
소정 거리 내 탐지되는 다른 영상 처리 장치(200)는 복수일 수 있다. 영상 처리 장치(200)는 복수의 영상 처리 장치(200)와의 통신을 통해 각 영상 처리 장치(200)의 위치를 파악할 수 있다. 영상 처리 장치(200)는 탐지된 복수의 영상 처리 장치(200)의 위치 정보 및 이격 거리를 표시할 수 있다.
영상 처리 장치(200)는 소정의 거리를 조절할 수 있다. 영상 처리 장치(200)는 탐지한 복수의 영상 처리 장치(200) 중 소정의 거리 이내의 영상 처리 장치(200)에 대해서만 영상 정보를 수신할 수 있다. 또는 영상 처리 장치(200)는 설정된 소정의 거리까지만 통신할 수 있도록 송신 신호의 전력을 조절할 수 있다.
일 실시예에 따르면 소정의 거리는 사용자에 의해 설정되고, 이에 따라 제어부에 의해 조절될 수 있다. 예를 들면, 소정의 거리 내에 도 3의 제2 차량(20)의 영상 처리 장치(25)만이 탐지될 수 있다. 이후 소정의 거리가 증가되면, 도 3의 제4 차량(40)의 영상 처리 장치(45)도 탐지될 수 있다. 소정의 거리를 설정함으로 인해, 영상 처리 장치(200)의 탐지 속도가 향상될 수 있다.
영상 처리 장치(200)는 탐지된 차량의 영상 처리 장치(200)에서 획득한 영상 정보를 수신할 수 있다(S1200). 영상 처리 장치(200)는 탐지된 차량의 영상 처리 장치(200)로부터 직접적으로 영상 정보를 수신할 수 있다. 또는 영상 처리 장치(200)는 서버(300)를 통해 영상 정보를 수신할 수 있다.
영상 처리 장치(200)는 탐지된 복수의 차량의 영상 처리 장치(200) 중에서, 설정된 소정의 거리에 따라, 또는 사용자 선택에 따라 일부의 차량의 영상 처리 장치(200)로부터 영상 정보를 수신할 수 있다.
영상 처리 장치(200)는, 실시간 디스플레이가 가능하도록 탐지된 차량의 영상 처리 장치(200)가 현재 촬영하고 있는 영상 정보를 실시간으로 송신 및 수신할 수 있다. 일 실시예에 따르면 영상 처리 장치(200)는, 실시간 영상 정보뿐만 아니라 소정의 시간 이전에 촬영된 영상 정보도 수신할 수 있다.
영상 처리 장치(200)는 수신한 영상 정보를 디스플레이에 표시할 수 있다(S1300). 영상 처리 장치(200)는 도 4를 통해 상술한 바와 같이 영상 정보를 디스플레이에 표시할 수 있다.
도 6은, 도 1에 따른 영상 처리 장치(200)가 소정 거리 내 차량의 카메라 상태 정보에 기초하여 차량의 영상 정보를 표시하는 방법에 관한 순서도이다. 도 6을 참조하면, 영상 처리 장치(200)는 소정 거리 내 차량을 탐지할 수 있다(S2100). S2100 단계는 S1100 단계에서 상술한 내용을 포함할 수 있다. 예를 들면, 도 3에서 상술한 바와 같이, 제1 차량(10)의 영상 처리 장치(15)는 소정 거리 내 제2 차량(20)의 영상 처리 장치(25)를 탐지할 수 있다.
영상 처리 장치(200)는 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득할 수 있다(S2200). 카메라 상태 정보는 예를 들면, 전방 카메라(224) 및 후방 카메라(224)의 구비 여부, 카메라(224)의 작동 상태, 카메라(224)의 촬영 화질, 카메라(224)의 광각 및 초점 거리 등을 포함할 수 있다.
예를 들면, 도 3에서 상술한 바와 같이, 영상 처리 장치(15)는 통신부(250)를 통해 제2 차량(20)의 영상 처리 장치(25)에게 카메라 상태 정보를 요청하고, 제2 차량(20)의 영상 처리 장치(25)로부터 카메라 상태 정보를 수신할 수 있다.
영상 처리 장치는 카메라 상태 정보가 소정의 조건을 만족하는지 판단할 수 있다(S2300). 소정의 조건이 만족되면, 예를 들면, 도 3에서 상술한 바와 같이 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)가 전방 카메라(224)를 구비하는 경우, 전방 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)가 후방 카메라(224)를 구비하는 경우, 후방 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)가 영상을 획득하는 동작을 수행하는 상태일 때, 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.
예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)의 화질이 고화질일 때 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.
영상 처리 장치(15)는 카메라 상태 정보가 소정의 조건을 만족하면, 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 표시할 수 있다(S2400). S2400 단계는 S1300 단계에서 상술한 내용을 포함할 수 있다.
영상 처리 장치(15)는 카메라 상태 정보가 소정의 조건을 만족하지 않으면, 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다(S2500). 소정의 조건이 만족되지 않으면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신하지 않거나, 표시하지 않는다. 영상 처리 장치(15)는 표시할 영상 정보를 획득하기 위해 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다. 이후 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)의 카메라 상태 정보를 획득할 수 있고, 소정의 조건이 만족되는지 판단할 수 있다. 소정의 조건이 만족되면, 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)가 획득한 영상 정보를 표시할 수 있다.
도 7은, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량들의 전방 영상 정보 및 후방 영상 정보를 표시하는 방법에 관한 순서도이다. 도 7을 참조하면, 영상 처리 장치(15)는 소정 거리 내 전방의 제2 차량(20)의 영상 처리 장치(25) 및 후방의 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다(S3100).
영상 처리 장치(15)는 예를 들면, 도 3을 통해 상술한 바와 같이 전방의 제2 차량(20)의 영상 처리 장치(25) 및 후방의 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다. 소정의 거리는 필요에 따라 조절될 수 있다. 전방의 소정 거리 및 후방의 소정 거리는 상이할 수 있다.
영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)로부터 전방 영상 정보를 수신할 수 있다(S3200). 또한, 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)로부터 후방 영상 정보를 수신할 수 있다(S3300).
일 실시예에 따르면, 영상 처리 장치(15), 제2 차량(20)의 영상 처리 장치(25) 및 제3 차량(30)의 영상 처리 장치(35)는 영상 처리 시스템을 구성하는 서버(300)와 통신할 수 있다. 서버(300)는 영상 처리 장치(15), 제2 차량(20)의 영상 처리 장치(25) 및 제3 차량(30)의 영상 처리 장치(35)와의 통신을 통해 각 영상 처리 장치(200) 간의 상대적 위치 정보를 파악할 수 있다.
서버(300)는 각 영상 처리 장치(200) 간의 상대적 위치 정보에 따라, 제2 차량(20)의 영상 처리 장치(25)에서 획득한 전방 영상 정보를 영상 처리 장치(15)에 전송하고, 반대로 영상 처리 장치(15)에서 획득한 후방 영상 정보를 제2 차량(20)의 영상 처리 장치(25)에 전송할 수 있다. 또한, 서버(300)는 제3 차량(30)의 영상 처리 장치(35)에서 획득한 후방 영상 정보를 영상 처리 장치(15)에 전송하고, 반대로 영상 처리 장치(15)에서 획득한 전방 영상 정보를 제2 영상 처리 장치(25)에 전송할 수 있다.
일 실시예에 따르면 영상 처리 장치는 도 6에서 상술한 바와 같이, 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보 및 제3 차량(30)의 영상 처리 장치(35)의 카메라 상태 정보가 각각 소정의 조건을 만족하는지 여부를 판단하고, 이에 따라 전방 영상 정보 및 후방 영상 정보를 수신할 수 있다.
영상 처리 장치(15)는 디스플레이부(212)를 통해 전방 영상 정보를 전방 화면에 표시 및 후방 영상 정보를 후방 화면에 표시할 수 있다(S3400). 디스플레이부(212)는 도 4를 통해 상술한 바와 같이, 전방 영상 영역(S1) 및 후방 영상 영역(S2)을 포함할 수 있다. 영상 처리 장치(15)는 이로써 제2 차량(20) 및 제3 차량(30)의 존재에 방해 받지 않고, 전방 영상 정보 및 후방 영상 정보를 표시할 수 있다.
도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (10)

  1. 제1 차량에 탑재되어 차량 외부의 영상 정보를 획득하는 카메라;
    상기 영상 정보를 표시하는 디스플레이;
    영상 정보를 송수신할 수 있는 통신부; 및
    상기 통신부를 통해 전방의 소정 거리 내에 위치하는 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 상기 디스플레이의 전방 영상 영역을 통해 상기 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하는 제어부를 포함하는
    영상 처리 장치.
  2. 제1 항에 있어서,
    상기 제어부는
    상기 제2 차량의 전방에 있는 제3 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신할 수 있는,
    영상 처리 장치.
  3. 제1 항에 있어서,
    상기 제어부는
    상기 전방의 소정의 거리를 조절하여, 상기 제2 차량의 전방에 있는 제3 차량의 영상 처리 장치를 탐지할 수 있는
    영상 처리 장치.
  4. 제1 항에 있어서,
    상기 제어부는 상기 통신부를 통해 상기 제2 차량의 영상 처리 장치와 통신하여 상기 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득하고,
    상기 제2 차량의 영상 처리 장치의 카메라 정보에 기초하여, 상기 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 획득하거나 상기 제2 차량의 전방에 위치하는 제3 차량의 영상 처리 장치를 탐지하는
    영상 처리 장치.
  5. 제4 항에 있어서,
    상기 카메라 상태 정보는,
    상기 제2 차량의 영상 처리 장치의 전방 카메라 구비 여부, 상기 제2 차량의 영상 처리 장치의 전방 카메라 작동 상태 및 상기 제2 차량의 영상 처리 장치의 전방 카메라 촬영 화질 등을 포함하는
    영상 처리 장치.
  6. 제1 항에 있어서,
    상기 제어부는, 상기 통신부를 통해 후방의 소정 거리 내에 위치하는 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 수신하고,
    상기 디스플레이의 전방 영상 영역을 통해 상기 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하고, 상기 디스플레이의 후방 영상 영역을 통해 상기 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 표시하는
    영상 처리 장치.
  7. 제6 항에 있어서,
    상기 제어부는 상기 디스플레이의 상기 전방 영상 영역 및 상기 후방 영상 영역을 동시에 활성화할 수 있는
    영상 처리 장치.
  8. 제1 영상 처리 장치의 전방 카메라를 통해 전방 영상 정보를 획득하는 제1 차량;
    상기 제1 차량의 후방에 위치하고, 제2 영상 처리 장치의 후방 카메라를 통해 후방 영상 정보를 획득하는 제2 차량; 및
    상기 제1 영상 처리 장치가 획득한 전방 영상 정보 및 상기 제2 영상 처리 장치가 획득한 후방 영상 정보를 수신하고,
    상기 제1 영상 처리 장치에 상기 제2 영상 처리 장치가 획득한 상기 후방 영상 정보를 송신하고, 상기 제2 차량에 상기 제1 영상 처리 장치가 획득한 상기 전방 영상 정보를 송신하는 서버를 포함하는
    시스템.
  9. 제1 소정 거리 내 제1 차량의 영상 처리 장치를 감지하는 단계;
    상기 제1 차량의 영상 처리 장치의 카메라 상태 정보를 획득하는 단계; 및
    상기 제1 차량의 영상 처리 장치의 카메라 상태 정보에 기초하여, 상기 제1 차량의 영상 처리 장치에서 획득한 영상 정보를 획득하거나 또는 상기 제1 소정 거리보다 큰 제2 소정 거리 내 제2 차량의 영상 처리 장치를 탐지하는 단계를 포함하는
    영상 표시 방법.
  10. 제9 항의 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020180172787A 2018-12-28 2018-12-28 영상 처리 장치 및 그 동작 방법 KR102151163B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180172787A KR102151163B1 (ko) 2018-12-28 2018-12-28 영상 처리 장치 및 그 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180172787A KR102151163B1 (ko) 2018-12-28 2018-12-28 영상 처리 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20200082317A true KR20200082317A (ko) 2020-07-08
KR102151163B1 KR102151163B1 (ko) 2020-09-02

Family

ID=71600435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180172787A KR102151163B1 (ko) 2018-12-28 2018-12-28 영상 처리 장치 및 그 동작 방법

Country Status (1)

Country Link
KR (1) KR102151163B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102324059B1 (ko) * 2021-04-26 2021-11-10 주식회사 조인트리 드론 조작용 비행 영상 제공 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267052A (ja) * 2009-05-14 2010-11-25 Denso Corp 車載表示装置
KR20140030697A (ko) * 2012-09-03 2014-03-12 현대모비스 주식회사 전방 영상 제공 방법 및 디스플레이 장치
KR20160112538A (ko) * 2015-03-19 2016-09-28 현대자동차주식회사 차량, 및 차량의 제어방법
KR20170056097A (ko) * 2015-11-12 2017-05-23 현대오트론 주식회사 헤드업 디스플레이를 이용한 전방 차량 표시장치 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267052A (ja) * 2009-05-14 2010-11-25 Denso Corp 車載表示装置
KR20140030697A (ko) * 2012-09-03 2014-03-12 현대모비스 주식회사 전방 영상 제공 방법 및 디스플레이 장치
KR20160112538A (ko) * 2015-03-19 2016-09-28 현대자동차주식회사 차량, 및 차량의 제어방법
KR20170056097A (ko) * 2015-11-12 2017-05-23 현대오트론 주식회사 헤드업 디스플레이를 이용한 전방 차량 표시장치 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102324059B1 (ko) * 2021-04-26 2021-11-10 주식회사 조인트리 드론 조작용 비행 영상 제공 시스템

Also Published As

Publication number Publication date
KR102151163B1 (ko) 2020-09-02

Similar Documents

Publication Publication Date Title
US9451062B2 (en) Mobile device edge view display insert
US9771083B2 (en) Cognitive displays
US20160150070A1 (en) Method and device for assisting in safe driving of a vehicle
US20160207539A1 (en) Method for executing vehicle function using wearable device and vehicle for carrying out the same
US9734412B2 (en) Method and system of communicating vehicle information
JP2017109732A (ja) 透明な電子ディスプレイ上の表示適合
JPWO2017163514A1 (ja) 眼鏡型ウェアラブル端末、その制御方法および制御プログラム
JP2016124393A (ja) 車両用表示装置
JP2010033106A (ja) 運転者支援装置、運転者支援方法および運転者支援処理プログラム
TW201600376A (zh) 結合感測器的車用智能影像安全系統
KR20140041005A (ko) 차선 이탈 경고 및 블랙 박스 시스템 및 그 이용 방법
WO2018042976A1 (ja) 画像生成装置、画像生成方法、記録媒体、および画像表示システム
KR102151163B1 (ko) 영상 처리 장치 및 그 동작 방법
KR102111755B1 (ko) 차량용 영상 처리 장치 및 그 제어 방법
CN109484304B (zh) 后视镜调节方法、装置、计算机可读存储介质及后视镜
JP2018072030A (ja) 車載装置、携帯端末特定方法
JP2019188855A (ja) 車両用視認装置
JP2016030478A (ja) 車内情報処理装置、車内情報処理方法、プログラム、及びカメラ
KR102140800B1 (ko) 인터페이스 장치 및 그 동작 방법
US20200275022A1 (en) Automotive driving recorder
KR20160058443A (ko) 무선 수신 장치, 이를 포함하는 차량용 후방 감지 장치 및 방법
JP2021176107A (ja) ドライブレコーダ、接近検知方法、及び接近検知プログラム
KR20200082463A (ko) 영상 기록 장치 및 그 동작 방법
JP6110617B2 (ja) 表示システム、表示制御装置及び表示制御方法
KR102569898B1 (ko) 혼합 현실을 이용한 운전 보조 시스템 및 그 제어 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant