KR102151163B1 - Video processing apparatus and operating method for the same - Google Patents

Video processing apparatus and operating method for the same Download PDF

Info

Publication number
KR102151163B1
KR102151163B1 KR1020180172787A KR20180172787A KR102151163B1 KR 102151163 B1 KR102151163 B1 KR 102151163B1 KR 1020180172787 A KR1020180172787 A KR 1020180172787A KR 20180172787 A KR20180172787 A KR 20180172787A KR 102151163 B1 KR102151163 B1 KR 102151163B1
Authority
KR
South Korea
Prior art keywords
image processing
vehicle
processing device
image
processing apparatus
Prior art date
Application number
KR1020180172787A
Other languages
Korean (ko)
Other versions
KR20200082317A (en
Inventor
이상국
Original Assignee
주식회사대성엘텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사대성엘텍 filed Critical 주식회사대성엘텍
Priority to KR1020180172787A priority Critical patent/KR102151163B1/en
Publication of KR20200082317A publication Critical patent/KR20200082317A/en
Application granted granted Critical
Publication of KR102151163B1 publication Critical patent/KR102151163B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

일 실시예에 따른 영상 처리 장치는 제1 차량에 탑재되어 차량 외부의 영상 정보를 획득하는 카메라, 영상 정보를 표시하는 디스플레이, 영상 정보를 송수신할 수 있는 통신부, 통신부를 통해 전방의 소정 거리 내에 위치하는 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 디스플레이의 전방 영상 영역을 통해 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하는 제어부를 포함할 수 있다. The image processing apparatus according to an embodiment is located within a predetermined distance in front of a camera mounted on a first vehicle to obtain image information outside the vehicle, a display displaying image information, a communication unit capable of transmitting and receiving image information, and a communication unit. And a controller configured to receive front image information obtained by the image processing apparatus of the second vehicle and display front image information obtained by the image processing apparatus of the second vehicle through the front image region of the display.

Description

영상 처리 장치 및 그 동작 방법{VIDEO PROCESSING APPARATUS AND OPERATING METHOD FOR THE SAME}Image processing apparatus and its operation method {VIDEO PROCESSING APPARATUS AND OPERATING METHOD FOR THE SAME}

본 출원에 의해 개시되는 발명은 영상 처리 장치 및 그 동작 방법에 관한 것이다.The invention disclosed by the present application relates to an image processing apparatus and a method of operating the same.

차량 운전 중에 전방 또는 후방에 화물차와 같은 대형 차량이 있는 경우, 대형 차량에 의해 그 이후의 시야가 방해되는 불편함이 있다. 이러한 시야의 방해는 주행 도로에 대한 예측 및 사전적 대응을 어렵게 한다. 이로 인해 후방의 운전자는 전방의 대형 차량에 대한 추월을 유발하는데, 편도 1차선 도로에서의 추월은 상당한 위험을 초래하여 많은 사상자를 발생시킨다.When there is a large vehicle such as a freight car in the front or the rear while driving the vehicle, there is an inconvenience that the vision after that is obstructed by the large vehicle. This obstruction of vision makes prediction and proactive response to the driving road difficult. As a result, drivers in the rear cause overtaking of a large vehicle in front, and passing on a one-way or one-lane road poses a considerable risk and causes many casualties.

최근 들어, 전방 또는 후방의 차량으로부터 시야를 확보할 수 있는 방안에 대한 수요가 증가하고 있다.In recent years, there is an increasing demand for a way to secure a view from a vehicle in front or a rear.

일 실시예에 따르면, 소정의 거리 내 다른 차량의 카메라에서 기록한 영상 정보를 실시간으로 표시하는 영상 처리 장치가 제공될 수 있다.According to an embodiment, an image processing apparatus may be provided that displays image information recorded by a camera of another vehicle within a predetermined distance in real time.

해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved is not limited to the above-described problems, and problems that are not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.

일 양상에 따르면, 제1 차량에 탑재되어 차량 외부의 영상 정보를 획득하는 카메라, 영상 정보를 표시하는 디스플레이, 영상 정보를 송수신할 수 있는 통신부, 통신부를 통해 전방의 소정 거리 내에 위치하는 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 디스플레이의 전방 영상 영역을 통해 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하는 제어부를 포함하는 영상 처리 장치가 제공될 수 있다.According to an aspect, a camera mounted on a first vehicle to acquire image information outside the vehicle, a display displaying image information, a communication unit capable of transmitting and receiving image information, a second vehicle positioned within a predetermined distance in front of the communication unit An image processing apparatus including a controller configured to receive front image information obtained by the image processing apparatus of and display the front image information obtained by the image processing apparatus of the second vehicle through a front image region of the display may be provided.

제어부는 제2 차량의 전방에 있는 제3 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신할 수 있다.The controller may receive front image information obtained by an image processing apparatus of a third vehicle in front of the second vehicle.

제어부는 전방의 소정의 거리를 조절하여, 제2 차량의 전방에 있는 제3 차량의 영상 처리 장치를 탐지할 수 있다.The controller may detect an image processing apparatus of a third vehicle in front of the second vehicle by adjusting a predetermined distance in front.

제어부는 통신부를 통해 제2 차량의 영상 처리 장치와 통신하여 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득하고, 제2 차량의 영상 처리 장치의 카메라 정보에 기초하여, 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 획득하거나 제2 차량의 전방에 위치하는 제3 차량의 영상 처리 장치를 탐지할 수 있다.The controller communicates with the image processing device of the second vehicle through the communication unit to obtain camera state information of the image processing device of the second vehicle, and processes the image of the second vehicle based on camera information of the image processing device of the second vehicle. The front image information obtained by the device may be acquired or an image processing device of a third vehicle positioned in front of the second vehicle may be detected.

카메라 상태 정보는, 제2 차량의 영상 처리 장치의 전방 카메라 구비 여부, 제2 차량의 영상 처리 장치의 전방 카메라 작동 상태 및 제2 차량의 영상 처리 장치의 전방 카메라 촬영 화질 등을 포함할 수 있다.The camera status information may include whether the image processing apparatus of the second vehicle has a front camera, an operating state of the front camera of the image processing apparatus of the second vehicle, and the image quality of a front camera of the image processing apparatus of the second vehicle.

제어부는, 통신부를 통해 후방의 소정 거리 내에 위치하는 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 수신하고, The control unit receives rear image information obtained by the image processing apparatus of the fourth vehicle located within a predetermined distance from the rear through the communication unit,

디스플레이의 전방 영상 영역을 통해 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하고, 디스플레이의 후방 영상 영역을 통해 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 표시할 수 있다.Front image information obtained by the image processing apparatus of the second vehicle may be displayed through the front image area of the display, and rear image information obtained by the image processing apparatus of the fourth vehicle may be displayed through the rear image region of the display.

제어부는 디스플레이의 전방 영상 영역 및 후방 영상 영역을 동시에 활성화할 수 있다.The controller may simultaneously activate the front image area and the rear image area of the display.

다른 일 양상에 따르면, 제1 영상 처리 장치의 전방 카메라를 통해 전방 영상 정보를 획득하는 제1 차량, 제1 차량의 후방에 위치하고, 제2 영상 처리 장치의 후방 카메라를 통해 후방 영상 정보를 획득하는 제2 차량, 제1 영상 처리 장치가 획득한 전방 영상 정보 및 제2 영상 처리 장치가 획득한 후방 영상 정보를 수신하고, 제1 영상 처리 장치에 제2 영상 처리 장치가 획득한 후방 영상 정보를 송신하고, 제2 차량에 제1 영상 처리 장치가 획득한 전방 영상 정보를 송신하는 서버를 포함하는 시스템이 제공될 수 있다.According to another aspect, a first vehicle that acquires front image information through a front camera of the first image processing apparatus, located at the rear of the first vehicle, and obtains rear image information through a rear camera of the second image processing apparatus. Receives the front image information acquired by the second vehicle, the first image processing device, and the rear image information acquired by the second image processing device, and transmits the rear image information acquired by the second image processing device to the first image processing device. In addition, a system including a server for transmitting front image information acquired by the first image processing apparatus to a second vehicle may be provided.

또 다른 일 양상에 따르면, 제1 소정 거리 내 제1 차량의 영상 처리 장치를 감지하는 단계, 제1 차량의 영상 처리 장치의 카메라 상태 정보를 획득하는 단계, 제1 차량의 영상 처리 장치의 카메라 상태 정보에 기초하여, 제1 차량의 영상 처리 장치에서 획득한 영상 정보를 획득하거나 또는 제1 소정 거리보다 큰 제2 소정 거리 내 제2 차량의 영상 처리 장치를 탐지하는 단계를 포함하는 영상 표시 방법이 제공될 수 있다.According to another aspect, detecting an image processing device of a first vehicle within a first predetermined distance, acquiring camera state information of an image processing device of the first vehicle, and a camera state of the image processing device of the first vehicle Based on the information, an image display method comprising the step of acquiring image information obtained by an image processing apparatus of a first vehicle or detecting an image processing apparatus of a second vehicle within a second predetermined distance greater than the first predetermined distance Can be provided.

또 다른 일 양상에 따르면, 상술한 영상 표시 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.According to another aspect, a computer-readable recording medium in which a program for performing the above-described image display method is recorded may be provided.

일 실시예에 따르면, 영상 처리 장치는 소정 거리 내 다른 차량의 카메라에서 기록된 영상 정보를 실시간으로 표시함으로써 다른 차량의 위치에서 확보한 시야를 운전자에게 제공할 수 있다.According to an embodiment, the image processing apparatus may provide a driver with a view secured from a location of another vehicle by displaying image information recorded by a camera of another vehicle within a predetermined distance in real time.

실시예들에 따른 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects according to the embodiments are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.

도 1은, 일 실시예에 따른 영상 처리 장치의 블록도이다.
도 2는, 도 1에 따른 영상 처리 장치를 포함하는 영상 처리 시스템에 관한 도면이다.
도 3은, 도 1에 따른 영상 처리 장치가 탑재된 다수의 차량들에 관한 도면이다.
도 4는, 도 1에 따른 영상 처리 장치가 표시하는 화면에 관한 도면이다.
도 5는, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량의 영상 정보를 표시하는 방법에 관한 순서도이다.
도 6은, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량의 카메라 상태 정보에 기초하여 차량의 영상 정보를 표시하는 방법에 관한 순서도이다,
도 7은, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량들의 전방 영상 정보 및 후방 영상 정보를 표시하는 방법에 관한 순서도이다.
1 is a block diagram of an image processing apparatus according to an exemplary embodiment.
FIG. 2 is a diagram of an image processing system including the image processing apparatus of FIG. 1.
3 is a diagram illustrating a plurality of vehicles equipped with the image processing apparatus according to FIG. 1.
FIG. 4 is a diagram illustrating a screen displayed by the image processing device of FIG. 1.
5 is a flowchart illustrating a method of displaying image information of a vehicle within a predetermined distance by the image processing device according to FIG. 1.
6 is a flowchart illustrating a method of displaying image information of a vehicle based on camera state information of a vehicle within a predetermined distance by the image processing apparatus according to FIG. 1.
7 is a flowchart illustrating a method of displaying front image information and rear image information of vehicles within a predetermined distance by the image processing apparatus according to FIG. 1.

실시예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have selected general terms that are currently widely used as possible while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, terms such as "... unit" and "... module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software components that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function. In addition, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm executed on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used widely, and are not limited to mechanical and physical configurations.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, the connecting lines or connecting members between the components illustrated in the drawings are merely illustrative of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.

도 1은, 일 실시예에 따른 영상 처리 장치(200)의 블록도이다. 도 1에 도시된 바와 같이, 일 실시예에 따른 영상 처리 장치(200)는 센싱부(230), 제어부(260), 출력부(210) 및 A/V 입력부(220) 및 메모리(240)를 더 포함할 수 있다. 1 is a block diagram of an image processing apparatus 200 according to an exemplary embodiment. As shown in FIG. 1, the image processing apparatus 200 according to an embodiment includes a sensing unit 230, a control unit 260, an output unit 210, an A/V input unit 220, and a memory 240. It may contain more.

그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 영상 처리 장치(200)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 영상 처리 장치(200)는 구현될 수 있다.However, not all of the illustrated components are essential components. The image processing apparatus 200 may be implemented by more components than the illustrated components, or the image processing apparatus 200 may be implemented by fewer components than the illustrated components.

영상 처리 장치(200)는 차량에 탑재되어 차량 외부의 영상을 기록 및 표시할 수 있다. 영상 처리 장치(200)는 배치되는 방향에 따라 차량 전방의 영상 또는 후방의 영상을 기록 및 표시할 수 있다. 영상 처리 장치(200)는 이 밖에도 차량의 운행 정보 등을 기록할 수 있다. 영상 처리 장치(200)는 획득한 영상을 통신부(250)를 통해 외부의 전자 기기와 공유할 수 있다. 예를 들면, 영상 처리 장치(200)는 사고 시 영상 및 운행 정보의 기록을 위한 차량용 블랙박스일 수 있다.The image processing apparatus 200 may be mounted on a vehicle to record and display an image outside the vehicle. The image processing apparatus 200 may record and display an image in front of the vehicle or an image in the rear according to the arrangement direction. In addition, the image processing apparatus 200 may record vehicle driving information. The image processing device 200 may share the acquired image with an external electronic device through the communication unit 250. For example, the image processing apparatus 200 may be a vehicle black box for recording images and driving information in case of an accident.

출력부(210)는, 제어부(260)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(212) 및 음향 출력부(214) 등이 포함될 수 있다. The output unit 210 is for performing an operation determined by the control unit 260, and may include a display unit 212 and an audio output unit 214.

디스플레이부(212)는 사용자 인터페이스를 표시할 수 있다. 또한, 일 실시예에 따른 디스플레이부(212)는 사용자 인터페이스를 통해 획득된 사용자 입력을 기초로 수행한 동작의 실행 결과를 표시할 수도 있다. The display unit 212 may display a user interface. In addition, the display unit 212 according to an embodiment may display an execution result of an operation performed based on a user input acquired through a user interface.

디스플레이부(212)는 제어부(260)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(212)는 촬영한 영상 정보 및 차량 관련 정보를 표시할 수 있다. The display unit 212 may display information processed by the controller 260. For example, the display unit 212 may display photographed image information and vehicle-related information.

여기서, 촬영한 영상 정보는 카메라(224)를 통해 획득한 차량의 전방, 후방 또는 카메라(224)의 방향에 따른 영상이다. 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부(212)는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.Here, the captured image information is an image according to the direction of the front or rear of the vehicle or the camera 224 obtained through the camera 224. The vehicle-related information may include vehicle state information indicating the current state of the vehicle or vehicle operation information related to the operation of the vehicle. For example, the display unit 212 may display current vehicle speed (or speed), speed (or speed) of surrounding vehicles, and distance information between the current vehicle and surrounding vehicles.

음향 출력부(214)는 오디오 데이터를 출력한다. 또한, 음향 출력부(214)는 영상 처리 장치(200)에서 수행되는 기능(예를 들어, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(214)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(214)는 차량 내부 뿐만 아니라 차량 외부로 알림음을 출력할 수 있다. The sound output unit 214 outputs audio data. In addition, the sound output unit 214 outputs an sound signal related to a function (eg, a notification sound) performed by the image processing apparatus 200. The sound output unit 214 may include a speaker, a buzzer, and the like. The sound output unit 214 may output a notification sound not only inside the vehicle but also outside the vehicle.

A/V(Audio/Video) 입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(224)와 마이크로폰(222) 등이 포함될 수 있다. The A/V (Audio/Video) input unit 220 is for inputting an audio signal or a video signal, and may include a camera 224 and a microphone 222.

카메라(224)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(260) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The camera 224 may obtain an image frame such as a still image or a video through an image sensor in a video call mode or a photographing mode. The image captured through the image sensor may be processed by the controller 260 or a separate image processing unit (not shown).

카메라(224)에서 처리된 화상 프레임은 메모리(240)에 저장되거나 통신부(250)를 통하여 외부로 전송될 수 있다. 카메라(224)는 영상 처리 장치(200)의 구성 태양에 따라 2개 이상이 구비되어 각각 상이한 방향을 촬영할 수 있다.The image frame processed by the camera 224 may be stored in the memory 240 or transmitted to the outside through the communication unit 250. Two or more cameras 224 may be provided depending on the configuration aspect of the image processing apparatus 200 to take different directions.

카메라(224)는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(260)에 전달할 수 있다. 카메라(224)에 포함되는 프로세서는, 제어부(260)의 제어를 받을 수 있다.The camera 224 may include a lens, an image sensor, and a processor. The processor may computer-process the captured image to generate data or information, and transmit the generated data or information to the controller 260. The processor included in the camera 224 may be controlled by the controller 260.

카메라(224)는 스테레오 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera 224 may include a stereo camera 224. In this case, the processor of the camera 224 uses the difference in disparity detected in the stereo image to detect the distance to the object, the relative speed with the object detected in the image, and the distance between a plurality of objects. I can.

카메라(224)는 TOF(Time of Flight) 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera 224 may include a Time of Flight (TOF) camera 224. In this case, the camera 224 may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera 224 is based on the distance to the object, the relative speed with the object, and between a plurality of objects based on the time until the infrared ray or laser emitted from the light source is reflected and received by the object (TOF). The distance can be detected.

제어부(260)는 카메라(224)로부터 전달받은 영상을 통신부(250)를 통해 외부의 전자기기에 전송할 수 있다. 외부의 전자기기는 다른 차량에 탑재된 영상 처리 장치(200)일 수 있고, 또는 다른 차량에 탑재된 영상 처리 장치(200)와 통신할 수 있는 서버(300)일 수 있다.The controller 260 may transmit the image transmitted from the camera 224 to an external electronic device through the communication unit 250. The external electronic device may be an image processing device 200 mounted on another vehicle, or may be a server 300 capable of communicating with the image processing device 200 mounted on another vehicle.

마이크로폰(222)은, 차량 내에서 발생하는 음성 신호를 감지할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(222)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 222 may detect a voice signal generated in the vehicle. The microphone 222 receives an external sound signal and processes it as electrical voice data. For example, the microphone 222 may receive a user's voice input. The microphone 222 may use various noise removal algorithms to remove noise generated in the process of receiving an external sound signal.

마이크로폰(222)은 복수일 수 있고, 각 마이크로폰(222)이 음성 신호를 감지하는 위치는 상이하게 배치될 수 있다.There may be a plurality of microphones 222, and positions at which each microphone 222 senses a voice signal may be differently disposed.

센싱부(230)는 차량 내에 위치한 사용자의 입력을 감지한다. 예를 들어, 센싱부(230)는 기 설정된 감지 범위 내의 사용자의 움직임을 감지할 수 있다. 센싱부(230)는 사용자의 입력이 감지됨에 따라, 차량 내에서의 사용자의 위치 정보 및 차량의 주행 상태 정보를 획득한다 The sensing unit 230 detects an input of a user located in the vehicle. For example, the sensing unit 230 may detect a user's movement within a preset detection range. The sensing unit 230 acquires location information of the user in the vehicle and driving state information of the vehicle as the user's input is detected.

센싱부(230)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. 각 센싱부를 통해 감지된 정보들은 메모리에 기록된다. 제어부는 각 센싱부를 통해 감지한 정보들로부터 차량의 운행 상태를 판단할 수 있다. The sensing unit 230 includes a magnetic sensor, an acceleration sensor, a temperature/humidity sensor, an infrared sensor, a gyroscope sensor, a position sensor (eg, GPS), an air pressure sensor, a proximity sensor, and an RGB sensor ( illuminance sensor), but is not limited thereto. Since the function of each sensor can be intuitively inferred by a person skilled in the art from its name, detailed description will be omitted. Information sensed through each sensing unit is recorded in the memory. The control unit may determine the driving state of the vehicle from information sensed through each sensing unit.

제어부(260)는 통상적으로 영상 처리 장치(200)의 전반적인 동작을 제어한다. 예를 들어, 제어부(260)는, 메모리(240)에 저장된 프로그램들을 실행함으로써, 센싱부(230), 출력부(210), A/V 입력부(220) 및 메모리(240) 등을 전반적으로 제어할 수 있다. The control unit 260 generally controls the overall operation of the image processing apparatus 200. For example, the controller 260 generally controls the sensing unit 230, the output unit 210, the A/V input unit 220, and the memory 240 by executing programs stored in the memory 240. can do.

제어부(260)는 사용자의 위치 정보 및 차량의 주행 상태 정보를 기초로 화면 구성 및 입력 수단 중 적어도 하나에 따라 분류되는 복수의 사용자 인터페이스들 중 어느 하나를 선택한다. The controller 260 selects any one of a plurality of user interfaces classified according to at least one of a screen configuration and input means based on the user's location information and the vehicle's driving state information.

메모리(240)는 제어부(260)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The memory 240 may store a program for processing and control of the controller 260 or may store input/output data.

일 실시예에 따른 메모리(240)는 복수의 운영체제를 저장할 수 있다. 또한, 메모리(240)는 복수의 운영체제 각각에서 실행되는 애플리케이션을 저장할 수 있다. The memory 240 according to an embodiment may store a plurality of operating systems. Also, the memory 240 may store applications that are executed in each of a plurality of operating systems.

메모리(240)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(242) 및 터치 스크린 모듈(244) 등으로 분류될 수 있다. Programs stored in the memory 240 may be classified into a plurality of modules according to their functions, for example, a UI module 242 and a touch screen module 244.

UI 모듈(242)은, 복수의 사용자 인터페이스들 중 선택된 사용자 인터페이스 및 그래픽 사용자 인터페이스 등을 제공할 수 있다. 터치 스크린 모듈(244) 은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(260)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(244)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(244)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 242 may provide a user interface and a graphic user interface selected from among a plurality of user interfaces. The touch screen module 244 may detect a user's touch gesture on the touch screen and transmit information on the touch gesture to the controller 260. The touch screen module 244 according to an embodiment of the present invention may recognize and analyze a touch code. The touch screen module 244 may be configured with separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. 또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.Various sensors may be provided inside or near the touch screen to sense a touch or a proximity touch of the touch screen. As an example of a sensor for sensing a touch on a touch screen, there is a tactile sensor. The tactile sensor refers to a sensor that detects contact with a specific object to the extent that a person feels it or more. The tactile sensor can detect various information such as roughness of a contact surface, hardness of a contact object, and temperature of a contact point. In addition, as an example of a sensor for sensing a touch of a touch screen, there is a proximity sensor.

일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리(240), 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 영상 처리 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리(240)에 저장되고, 프로세서에서 실행될 수 있다.A device according to an embodiment includes a processor, a memory 240 for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, and a button. It may include an image processing device such as, etc. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, as a computer-readable recording medium, a magnetic storage medium (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading medium (e.g., CD-ROM ) And DVD (Digital Versatile Disc). The computer-readable recording medium is distributed over network-connected computer systems, so that computer-readable codes can be stored and executed in a distributed manner. The medium is readable by a computer, stored in memory 240, and executed on a processor.

통신부(250)는 다른 차량에 탑재된 영상 처리 장치(200) 또는 다른 차량에 탑재된 영상 처리 장치(200)와 통신할 수 있는 서버(300)와 통신할 수 있다. 통신부(250)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다. 통신부(250)는 영상 처리 장치(200)가 탑재되는 차량 내에 구비되는 전자 제어 장치(ECU) 들과 CAN 기반 네트워크를 통해 통신할 수 있다. The communication unit 250 may communicate with an image processing device 200 mounted on another vehicle or a server 300 capable of communicating with an image processing device 200 mounted on another vehicle. The communication unit 250 may include a short-range communication module, a location information module, an optical communication module, and a V2X communication module. The communication unit 250 may communicate with electronic control devices (ECUs) provided in a vehicle in which the image processing device 200 is mounted through a CAN-based network.

도 2는, 도 1에 따른 영상 처리 장치를 포함하는 영상 처리 시스템에 관한 도면이다. 도 2를 참조하면, 다수의 차량들과 서버(300)는 영상 정보를 공유하는 시스템을 구축할 수 있다. 제1 차량(100-1) 및 제2 차량(100-2)들은 각각 영상 정보를 획득하는 영상 처리 장치(200-1, 200-2)를 구비할 수 있다.FIG. 2 is a diagram of an image processing system including the image processing apparatus of FIG. 1. Referring to FIG. 2, a plurality of vehicles and the server 300 may build a system for sharing image information. The first vehicle 100-1 and the second vehicle 100-2 may each include image processing apparatuses 200-1 and 200-2 that acquire image information.

제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 통신을 통해 소정의 거리 내에 각자의 존재를 탐지할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서로 직접 통신하여 각자의 위치를 파악할 수 있다. 또는 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)를 통해 통신하여 각자의 위치를 파악할 수 있다.The image processing device 200-1 of the first vehicle 100-1 and the image processing device 200-2 of the second vehicle 100-2 can detect their existence within a predetermined distance through communication. have. The image processing apparatus 200-1 of the first vehicle 100-1 and the image processing apparatus 200-2 of the second vehicle 100-2 may directly communicate with each other to determine their respective positions. Alternatively, the image processing device 200-1 of the first vehicle 100-1 and the image processing device 200-2 of the second vehicle 100-2 communicate through the server 300 to determine their respective locations. I can.

제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 영상 정보를 공유할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 직접적으로 상호 간의 통신을 통해 영상 정보를 공유할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1)는 제2 차량(100-2)의 영상 처리 장치(200-2)에게 영상 정보를 요청할 수 있다. 제1 차량(100-1)의 영상 처리 장치(200-1)는 요청에 응답하여 제2 차량(100-2)의 영상 처리 장치(200-2)에게 영상 정보를 전송할 수 있다.The image processing device 200-1 of the first vehicle 100-1 and the image processing device 200-2 of the second vehicle 100-2 may share image information. The image processing apparatus 200-1 of the first vehicle 100-1 and the image processing apparatus 200-2 of the second vehicle 100-2 may directly share image information through mutual communication. . The image processing apparatus 200-1 of the first vehicle 100-1 may request image information from the image processing apparatus 200-2 of the second vehicle 100-2. The image processing apparatus 200-1 of the first vehicle 100-1 may transmit image information to the image processing apparatus 200-2 of the second vehicle 100-2 in response to the request.

제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 상호 간의 직접적인 통신을 통해 영상 정보를 신속하게 공유할 수 있다. 이로 인해 제1 차량(100-1)의 영상 처리 장치(200-1)는 제2 차량(100-2)의 영상 처리 장치(200-2)에서 획득한 영상 정보를 실시간으로 표시할 수 있다.The image processing device 200-1 of the first vehicle 100-1 and the image processing device 200-2 of the second vehicle 100-2 can quickly share image information through direct communication with each other. have. Accordingly, the image processing apparatus 200-1 of the first vehicle 100-1 may display image information acquired by the image processing apparatus 200-2 of the second vehicle 100-2 in real time.

또는 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)를 통해 영상 정보를 공유할 수 있다.Alternatively, the image processing device 200-1 of the first vehicle 100-1 and the image processing device 200-2 of the second vehicle 100-2 may share image information through the server 300. .

제1 차량(100-1)의 영상 처리 장치(200-1)는 주기적으로 또는 사용자 입력에 따라 획득한 영상 정보를 서버(300)에 업로드할 수 있다. 서버(300)는 획득한 영상 정보를 자체 저장부에 기록할 수 있다. 제2 차량(100-2)의 영상 처리 장치(200-2)는 서버(300)에게 제1 차량(100-1)의 영상 처리 장치(200-1)가 획득한 영상 정보를 요청할 수 있다. 서버(300)는 제2 차량(100-2)의 영상 처리 장치(200-2)의 요청에 따라 제1 차량(100-1)의 영상 처리 장치(200-1)가 획득한 영상 정보를 제2 차량(100-2)의 영상 처리 장치(200-2)에게 전송할 수 있다. 서버(300)를 통한 제1 차량(100-1)의 영상 처리 장치(200-1) 및 제2 차량(100-2)의 영상 처리 장치(200-2) 간 통신을 통해 영상 처리 시스템은 각 차량의 영상 처리 장치가 획득한 영상 정보를 안정적으로 보관할 수 있고, 체계적으로 관리할 수 있다. The image processing apparatus 200-1 of the first vehicle 100-1 may periodically or according to a user input, upload the acquired image information to the server 300. The server 300 may record the acquired image information in its own storage unit. The image processing device 200-2 of the second vehicle 100-2 may request the server 300 for image information acquired by the image processing device 200-1 of the first vehicle 100-1. The server 300 provides the image information acquired by the image processing device 200-1 of the first vehicle 100-1 in response to the request of the image processing device 200-2 of the second vehicle 100-2. 2 It can be transmitted to the image processing apparatus 200-2 of the vehicle 100-2. Through communication between the image processing device 200-1 of the first vehicle 100-1 and the image processing device 200-2 of the second vehicle 100-2 through the server 300, the image processing system is The image information acquired by the image processing device of the vehicle can be stably stored and systematically managed.

도 3은, 도 1에 따른 영상 처리 장치가 탑재된 다수의 차량들에 관한 도면이다. 도 3을 참조하면, 제1 차량(10)의 전방에는 제2 차량(20)이 있고, 제1 차량(10)의 후방에는 제3 차량이 있으며, 제1 차량(10) 및 제2 차량(20)의 전방에는 제4 차량(40)이 있다.3 is a diagram illustrating a plurality of vehicles equipped with the image processing apparatus according to FIG. 1. 3, a second vehicle 20 is in front of the first vehicle 10, a third vehicle is in the rear of the first vehicle 10, and the first vehicle 10 and the second vehicle ( There is a fourth vehicle 40 in front of 20).

제1 차량(10)은 제2 차량(20)에 의해 전방의 시야 확보에 방해를 받는다. 또한, 제1 차량(10)은 제3 차량(30)에 의해 후방의 시야 확보에 방해를 받는다.The first vehicle 10 is obstructed by the second vehicle 20 to secure a front view. In addition, the first vehicle 10 is obstructed by the third vehicle 30 to secure a rear view.

각 차량들에 탑재된 영상 처리 장치(200)들은 전방 영상 정보를 촬영하는 전방 카메라(224) 및 후방 영상 정보를 촬영하는 후방 카메라(224)를 구비할 수 있다.The image processing apparatuses 200 mounted on each vehicle may include a front camera 224 for photographing front image information and a rear camera 224 for photographing rear image information.

제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 전방 카메라(224)에서 촬영한 전방 영상 정보를 수신할 수 있고, 제2 차량(20)의 영상 처리 장치(25)의 전방 카메라(224)에서 촬영한 전방 영상 정보를 표시함으로써 사용자에게 방해 받지 않은 전방 시야를 제공할 수 있다. The image processing device 15 of the first vehicle 10 may receive front image information captured by the front camera 224 of the image processing device 25 of the second vehicle 20, and the second vehicle 20 ), it is possible to provide an unobstructed front view to the user by displaying the front image information captured by the front camera 224 of the image processing device 25 of ().

한편, 제2 차량(20)은 제4 차량(40)에 의해 전방 시야 확보에 방해를 받는다. 따라서, 제2 차량(20)의 영상 처리 장치(25)는 제4 차량(40)의 영상 처리 장치에서 획득한 전방 영상 정보를 수신하고, 표시할 수 있다.Meanwhile, the second vehicle 20 is obstructed by the fourth vehicle 40 to secure a front view. Accordingly, the image processing device 25 of the second vehicle 20 may receive and display the front image information acquired by the image processing device of the fourth vehicle 40.

제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 전방 영상 정보를 수신하더라도, 제4 차량(40)에 의해 전방의 물체(50)에 대한 시야를 확보하기 어렵다. 따라서 제1 차량(10)의 영상 처리 장치(15)는 제4 차량(40)의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 표시함으로써 물체에 대한 시야를 확보할 수 있다.Even if the image processing apparatus 15 of the first vehicle 10 receives the front image information acquired by the image processing apparatus 25 of the second vehicle 20, the object 50 in front of the fourth vehicle 40 is ), it is difficult to secure a view. Accordingly, the image processing apparatus 15 of the first vehicle 10 may secure a view of the object by receiving and displaying the front image information obtained by the image processing apparatus of the fourth vehicle 40.

또한 제1 차량(10)의 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)의 후방 카메라(224)에서 촬영한 후방 영상 정보를 수신할 수 있고, 제3 차량(30)의 영상 처리 장치(35)의 후방 카메라(224)에서 촬영한 후방 영상 정보를 표시함으로써 사용자에게 방해 받지 않은 후방 시야를 제공할 수 있다. In addition, the image processing apparatus 15 of the first vehicle 10 may receive rear image information photographed by the rear camera 224 of the image processing apparatus 35 of the third vehicle 30, and the third vehicle ( By displaying rear image information captured by the rear camera 224 of the image processing apparatus 35 of 30), it is possible to provide an unobstructed rear view to the user.

제1 차량(10)의 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라(224) 상태에 기초하여 제2 차량(20)의 영상 처리 장치(25)가 획득한 전방 영상 정보의 수신 여부를 결정할 수 있고, 제3 차량(30)의 영상 처리 장치(35)의 카메라(224) 상태에 기초하여 제3 차량(30)의 영상 처리 장치(35)가 획득한 후방 영상 정보의 수신 여부를 결정할 수 있다. 이에 대해서는 도 6을 참조하여 더 자세히 후술한다.The image processing device 15 of the first vehicle 10 includes the image processing device 25 of the second vehicle 20 based on the state of the camera 224 of the image processing device 25 of the second vehicle 20. It is possible to determine whether to receive the acquired front image information, and the image processing device 35 of the third vehicle 30 is acquired based on the state of the camera 224 of the image processing device 35 of the third vehicle 30. It is possible to determine whether to receive one rear image information. This will be described in more detail later with reference to FIG. 6.

도 4는, 도 1에 따른 영상 처리 장치가 표시하는 화면에 관한 도면이다. 도 4를 참조하면, 영상 처리 장치(200)는 디스플레이부(212)를 통해 촬영한 영상을 표시할 수 있다.FIG. 4 is a diagram illustrating a screen displayed by the image processing device of FIG. 1. Referring to FIG. 4, the image processing apparatus 200 may display an image photographed through the display unit 212.

디스플레이부(212)는 전방 영상을 표시하는 전방 영상 영역(S1) 및 후방 영상을 표시하는 후방 영상 영역(S2)을 포함할 수 있다. 전방 영상 영역(S1) 및 후방 영상 영역(S2)은 동시에 활성화될 수 있고, 또는 어느 하나만 활성화될 수 있다. The display unit 212 may include a front image area S1 displaying a front image and a rear image area S2 displaying a rear image. The front image region S1 and the rear image region S2 may be activated at the same time, or only one of them may be activated.

예를 들어, 영상 처리 장치(200)가 후방 영상 정보를 보유하지 않는 경우, 디스플레이부(212)는 후방 영상 영역(S2)을 비활성화하고, 전방 영상 영역(S1)을 통해 전방 영상 정보만 표시할 수 있다.For example, when the image processing apparatus 200 does not hold the rear image information, the display unit 212 deactivates the rear image area S2 and displays only the front image information through the front image area S1. I can.

전방 영상 영역(S1)에서 표시되는 전방 영상은 영상 처리 장치(200)의 카메라(224)를 통해 촬영한 영상일 수 있다. 또는 전방 영상은 예를 들면 도 3의 제1 차량(10)의 전방에 위치하는 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)를 통해 촬영한 전방 영상일 수 있다. The front image displayed in the front image area S1 may be an image captured by the camera 224 of the image processing apparatus 200. Alternatively, the front image may be, for example, a front image captured by the camera 224 of the image processing apparatus 25 of the second vehicle 20 located in front of the first vehicle 10 of FIG. 3.

제1 차량(10)의 사용자가 전면 유리창을 통해 확인하는 전방의 시야에는 제2 차량(20)이 포함되어 있으므로, 사용자는 제2 차량(20)의 전방은 확인할 수 없다. 따라서, 사용자는 영상 처리 장치(200)의 전방 영상 영역(S1)을 확인함으로써 제2 차량(20)의 전방까지 확인할 수 있다.Since the second vehicle 20 is included in the front view that the user of the first vehicle 10 checks through the windshield, the user cannot see the front of the second vehicle 20. Accordingly, the user can check the front image area S1 of the image processing apparatus 200 to the front of the second vehicle 20.

또는 전방 영상은 예를 들면 도 3의 제1 차량(10)의 전방에 위치하는 제4 차량(40)의 카메라(224)를 통해 촬영한 전방 영상일 수도 있다. 즉, 사용자는 원하는 전방의 시야를 확보하기 위해 제2 차량(20)의 전방 영상 또는 제4 차량의 전방 영상을 선택적으로 표시할 수 있다.Alternatively, the front image may be, for example, a front image captured by the camera 224 of the fourth vehicle 40 located in front of the first vehicle 10 of FIG. 3. That is, the user may selectively display the front image of the second vehicle 20 or the front image of the fourth vehicle in order to secure a desired front view.

또는 미도시하였으나, 전방 영상 영역(S1) 또는 후방 영상 영역(S2)은 각각 복수의 영역으로 제공될 수 있다. 예를 들면, 제2 차량(20)의 전방 영상은 제1 전방 영상 영역을 통해서 표시되고 제4 차량의 전방 영상은 제2 전방 영상 영역을 통해서 표시될 수도 있다.Alternatively, although not shown, the front image region S1 or the rear image region S2 may be provided as a plurality of regions, respectively. For example, the front image of the second vehicle 20 may be displayed through the first front image area, and the front image of the fourth vehicle may be displayed through the second front image area.

전방 영상 영역(S1) 및 후방 영상 영역(S2)의 크기는 조절될 수 있다. 전방 영상 영역(S1) 및 후방 영상 영역(S2)은 서로 그 위치가 바뀔 수도 있다. The sizes of the front image area S1 and the rear image area S2 may be adjusted. The positions of the front image area S1 and the rear image area S2 may be changed.

도 5는, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량의 영상 정보를 표시하는 방법에 관한 순서도이다. 도 5를 참조하면, 영상 처리 장치(200)는 소정의 거리 내 차량에 탑재된 영상 처리 장치(200)를 탐지할 수 있다(S1100). 영상 처리 장치(200)는 통신부(250)를 통해 소정 거리 내 다른 영상 처리 장치(200)의 존재를 탐지할 수 있다. 5 is a flowchart illustrating a method of displaying image information of a vehicle within a predetermined distance by the image processing device according to FIG. 1. Referring to FIG. 5, the image processing apparatus 200 may detect the image processing apparatus 200 mounted on a vehicle within a predetermined distance (S1100). The image processing device 200 may detect the presence of another image processing device 200 within a predetermined distance through the communication unit 250.

소정 거리 내 탐지되는 다른 영상 처리 장치(200)는 복수일 수 있다. 영상 처리 장치(200)는 복수의 영상 처리 장치(200)와의 통신을 통해 각 영상 처리 장치(200)의 위치를 파악할 수 있다. 영상 처리 장치(200)는 탐지된 복수의 영상 처리 장치(200)의 위치 정보 및 이격 거리를 표시할 수 있다. There may be a plurality of other image processing devices 200 detected within a predetermined distance. The image processing device 200 may determine the location of each image processing device 200 through communication with the plurality of image processing devices 200. The image processing device 200 may display location information and separation distances of the detected plurality of image processing devices 200.

영상 처리 장치(200)는 소정의 거리를 조절할 수 있다. 영상 처리 장치(200)는 탐지한 복수의 영상 처리 장치(200) 중 소정의 거리 이내의 영상 처리 장치(200)에 대해서만 영상 정보를 수신할 수 있다. 또는 영상 처리 장치(200)는 설정된 소정의 거리까지만 통신할 수 있도록 송신 신호의 전력을 조절할 수 있다.The image processing apparatus 200 may adjust a predetermined distance. The image processing device 200 may receive image information only for the image processing device 200 within a predetermined distance among the plurality of detected image processing devices 200. Alternatively, the image processing apparatus 200 may adjust the power of the transmission signal to communicate only up to a predetermined distance.

일 실시예에 따르면 소정의 거리는 사용자에 의해 설정되고, 이에 따라 제어부에 의해 조절될 수 있다. 예를 들면, 소정의 거리 내에 도 3의 제2 차량(20)의 영상 처리 장치(25)만이 탐지될 수 있다. 이후 소정의 거리가 증가되면, 도 3의 제4 차량(40)의 영상 처리 장치(45)도 탐지될 수 있다. 소정의 거리를 설정함으로 인해, 영상 처리 장치(200)의 탐지 속도가 향상될 수 있다.According to an embodiment, the predetermined distance is set by the user and may be adjusted by the controller accordingly. For example, only the image processing apparatus 25 of the second vehicle 20 of FIG. 3 may be detected within a predetermined distance. Thereafter, when the predetermined distance increases, the image processing apparatus 45 of the fourth vehicle 40 of FIG. 3 may also be detected. By setting a predetermined distance, the detection speed of the image processing apparatus 200 may be improved.

영상 처리 장치(200)는 탐지된 차량의 영상 처리 장치(200)에서 획득한 영상 정보를 수신할 수 있다(S1200). 영상 처리 장치(200)는 탐지된 차량의 영상 처리 장치(200)로부터 직접적으로 영상 정보를 수신할 수 있다. 또는 영상 처리 장치(200)는 서버(300)를 통해 영상 정보를 수신할 수 있다.The image processing device 200 may receive image information acquired by the image processing device 200 of the detected vehicle (S1200). The image processing device 200 may directly receive image information from the image processing device 200 of the detected vehicle. Alternatively, the image processing device 200 may receive image information through the server 300.

영상 처리 장치(200)는 탐지된 복수의 차량의 영상 처리 장치(200) 중에서, 설정된 소정의 거리에 따라, 또는 사용자 선택에 따라 일부의 차량의 영상 처리 장치(200)로부터 영상 정보를 수신할 수 있다.The image processing apparatus 200 may receive image information from the image processing apparatuses 200 of some vehicles according to a set predetermined distance from among the detected image processing apparatuses 200 of a plurality of vehicles or according to user selection. have.

영상 처리 장치(200)는, 실시간 디스플레이가 가능하도록 탐지된 차량의 영상 처리 장치(200)가 현재 촬영하고 있는 영상 정보를 실시간으로 송신 및 수신할 수 있다. 일 실시예에 따르면 영상 처리 장치(200)는, 실시간 영상 정보뿐만 아니라 소정의 시간 이전에 촬영된 영상 정보도 수신할 수 있다.The image processing apparatus 200 may transmit and receive image information currently being photographed by the detected vehicle image processing apparatus 200 to enable real-time display in real time. According to an embodiment, the image processing apparatus 200 may receive not only real-time image information, but also image information photographed before a predetermined time.

영상 처리 장치(200)는 수신한 영상 정보를 디스플레이에 표시할 수 있다(S1300). 영상 처리 장치(200)는 도 4를 통해 상술한 바와 같이 영상 정보를 디스플레이에 표시할 수 있다.The image processing apparatus 200 may display the received image information on the display (S1300). The image processing apparatus 200 may display image information on the display as described above with reference to FIG. 4.

도 6은, 도 1에 따른 영상 처리 장치(200)가 소정 거리 내 차량의 카메라 상태 정보에 기초하여 차량의 영상 정보를 표시하는 방법에 관한 순서도이다. 도 6을 참조하면, 영상 처리 장치(200)는 소정 거리 내 차량을 탐지할 수 있다(S2100). S2100 단계는 S1100 단계에서 상술한 내용을 포함할 수 있다. 예를 들면, 도 3에서 상술한 바와 같이, 제1 차량(10)의 영상 처리 장치(15)는 소정 거리 내 제2 차량(20)의 영상 처리 장치(25)를 탐지할 수 있다.6 is a flowchart illustrating a method of displaying image information of a vehicle based on camera state information of a vehicle within a predetermined distance by the image processing apparatus 200 according to FIG. 1. Referring to FIG. 6, the image processing apparatus 200 may detect a vehicle within a predetermined distance (S2100). Step S2100 may include the contents described above in step S1100. For example, as described above with reference to FIG. 3, the image processing device 15 of the first vehicle 10 may detect the image processing device 25 of the second vehicle 20 within a predetermined distance.

영상 처리 장치(200)는 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득할 수 있다(S2200). 카메라 상태 정보는 예를 들면, 전방 카메라(224) 및 후방 카메라(224)의 구비 여부, 카메라(224)의 작동 상태, 카메라(224)의 촬영 화질, 카메라(224)의 광각 및 초점 거리 등을 포함할 수 있다. The image processing device 200 may acquire camera state information of the image processing device of the second vehicle (S2200). The camera status information includes, for example, whether the front camera 224 and the rear camera 224 are provided, the operation status of the camera 224, the image quality of the camera 224, the wide angle and the focal length of the camera 224, etc. Can include.

예를 들면, 도 3에서 상술한 바와 같이, 영상 처리 장치(15)는 통신부(250)를 통해 제2 차량(20)의 영상 처리 장치(25)에게 카메라 상태 정보를 요청하고, 제2 차량(20)의 영상 처리 장치(25)로부터 카메라 상태 정보를 수신할 수 있다.For example, as described above in FIG. 3, the image processing device 15 requests camera state information from the image processing device 25 of the second vehicle 20 through the communication unit 250, and the second vehicle ( The camera status information may be received from the image processing device 25 of 20).

영상 처리 장치는 카메라 상태 정보가 소정의 조건을 만족하는지 판단할 수 있다(S2300). 소정의 조건이 만족되면, 예를 들면, 도 3에서 상술한 바와 같이 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.The image processing apparatus may determine whether the camera state information satisfies a predetermined condition (S2300). When a predetermined condition is satisfied, for example, as described above with reference to FIG. 3, the image processing device 15 may receive image information acquired by the image processing device 25 of the second vehicle 20.

예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)가 전방 카메라(224)를 구비하는 경우, 전방 영상 정보를 수신할 수 있다.For example, when the image processing device 15 determines based on the camera state information of the image processing device 25 of the second vehicle 20, the image processing device 25 of the second vehicle 20 is If the camera 224 is provided, front image information may be received.

예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)가 후방 카메라(224)를 구비하는 경우, 후방 영상 정보를 수신할 수 있다.For example, when the image processing device 15 determines based on the camera state information of the image processing device 25 of the second vehicle 20, the image processing device 25 of the second vehicle 20 When the camera 224 is provided, rear image information may be received.

예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)가 영상을 획득하는 동작을 수행하는 상태일 때, 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.For example, when determining based on the camera state information of the image processing device 25 of the second vehicle 20, the image processing device 15 may determine the camera of the image processing device 25 of the second vehicle 20 When 224 is in a state in which an operation of obtaining an image is performed, the image information acquired by the image processing apparatus 25 of the second vehicle 20 may be received.

예를 들면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보에 기초하여 판단할 때, 제2 차량(20)의 영상 처리 장치(25)의 카메라(224)의 화질이 고화질일 때 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신할 수 있다.For example, when determining based on the camera state information of the image processing device 25 of the second vehicle 20, the image processing device 15 may determine the camera of the image processing device 25 of the second vehicle 20 When the image quality of 224 is high quality, the image information acquired by the image processing apparatus 25 of the second vehicle 20 may be received.

영상 처리 장치(15)는 카메라 상태 정보가 소정의 조건을 만족하면, 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 표시할 수 있다(S2400). S2400 단계는 S1300 단계에서 상술한 내용을 포함할 수 있다.When the camera state information satisfies a predetermined condition, the image processing device 15 may display the image information acquired by the image processing device 25 of the second vehicle 20 (S2400). Step S2400 may include the contents described above in step S1300.

영상 처리 장치(15)는 카메라 상태 정보가 소정의 조건을 만족하지 않으면, 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다(S2500). 소정의 조건이 만족되지 않으면, 영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)가 획득한 영상 정보를 수신하지 않거나, 표시하지 않는다. 영상 처리 장치(15)는 표시할 영상 정보를 획득하기 위해 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다. 이후 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)의 카메라 상태 정보를 획득할 수 있고, 소정의 조건이 만족되는지 판단할 수 있다. 소정의 조건이 만족되면, 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)가 획득한 영상 정보를 표시할 수 있다.The image processing apparatus 15 may detect the image processing apparatus 35 of the third vehicle 30 when the camera state information does not satisfy a predetermined condition (S2500). If the predetermined condition is not satisfied, the image processing device 15 does not receive or display the image information acquired by the image processing device 25 of the second vehicle 20. The image processing device 15 may detect the image processing device 35 of the third vehicle 30 to obtain image information to be displayed. Thereafter, the image processing apparatus 15 may acquire camera state information of the image processing apparatus 35 of the third vehicle 30 and determine whether a predetermined condition is satisfied. When a predetermined condition is satisfied, the image processing device 15 may display image information acquired by the image processing device 35 of the third vehicle 30.

도 7은, 도 1에 따른 영상 처리 장치가 소정 거리 내 차량들의 전방 영상 정보 및 후방 영상 정보를 표시하는 방법에 관한 순서도이다. 도 7을 참조하면, 영상 처리 장치(15)는 소정 거리 내 전방의 제2 차량(20)의 영상 처리 장치(25) 및 후방의 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다(S3100). 7 is a flowchart illustrating a method of displaying front image information and rear image information of vehicles within a predetermined distance by the image processing apparatus according to FIG. 1. Referring to FIG. 7, the image processing device 15 may detect the image processing device 25 of the second vehicle 20 in front and the image processing device 35 of the third vehicle 30 in the rear within a predetermined distance. Can be (S3100).

영상 처리 장치(15)는 예를 들면, 도 3을 통해 상술한 바와 같이 전방의 제2 차량(20)의 영상 처리 장치(25) 및 후방의 제3 차량(30)의 영상 처리 장치(35)를 탐지할 수 있다. 소정의 거리는 필요에 따라 조절될 수 있다. 전방의 소정 거리 및 후방의 소정 거리는 상이할 수 있다.The image processing device 15 includes, for example, the image processing device 25 of the second vehicle 20 in front and the image processing device 35 of the third vehicle 30 in the rear, as described above with reference to FIG. 3. Can be detected. The predetermined distance can be adjusted as required. The predetermined distance in the front and the predetermined distance in the rear may be different.

영상 처리 장치(15)는 제2 차량(20)의 영상 처리 장치(25)로부터 전방 영상 정보를 수신할 수 있다(S3200). 또한, 영상 처리 장치(15)는 제3 차량(30)의 영상 처리 장치(35)로부터 후방 영상 정보를 수신할 수 있다(S3300).The image processing device 15 may receive front image information from the image processing device 25 of the second vehicle 20 (S3200). Also, the image processing apparatus 15 may receive rear image information from the image processing apparatus 35 of the third vehicle 30 (S3300).

일 실시예에 따르면, 영상 처리 장치(15), 제2 차량(20)의 영상 처리 장치(25) 및 제3 차량(30)의 영상 처리 장치(35)는 영상 처리 시스템을 구성하는 서버(300)와 통신할 수 있다. 서버(300)는 영상 처리 장치(15), 제2 차량(20)의 영상 처리 장치(25) 및 제3 차량(30)의 영상 처리 장치(35)와의 통신을 통해 각 영상 처리 장치(200) 간의 상대적 위치 정보를 파악할 수 있다.According to an embodiment, the image processing device 15, the image processing device 25 of the second vehicle 20, and the image processing device 35 of the third vehicle 30 are a server 300 constituting an image processing system. ) And can communicate. The server 300 communicates with the image processing device 15, the image processing device 25 of the second vehicle 20, and the image processing device 35 of the third vehicle 30 to each image processing device 200. The relative location information of the liver can be identified.

서버(300)는 각 영상 처리 장치(200) 간의 상대적 위치 정보에 따라, 제2 차량(20)의 영상 처리 장치(25)에서 획득한 전방 영상 정보를 영상 처리 장치(15)에 전송하고, 반대로 영상 처리 장치(15)에서 획득한 후방 영상 정보를 제2 차량(20)의 영상 처리 장치(25)에 전송할 수 있다. 또한, 서버(300)는 제3 차량(30)의 영상 처리 장치(35)에서 획득한 후방 영상 정보를 영상 처리 장치(15)에 전송하고, 반대로 영상 처리 장치(15)에서 획득한 전방 영상 정보를 제2 영상 처리 장치(25)에 전송할 수 있다.The server 300 transmits the front image information acquired by the image processing device 25 of the second vehicle 20 to the image processing device 15 according to the relative position information between each image processing device 200, and vice versa. The rear image information acquired by the image processing device 15 may be transmitted to the image processing device 25 of the second vehicle 20. In addition, the server 300 transmits the rear image information acquired by the image processing device 35 of the third vehicle 30 to the image processing device 15, and conversely, the front image information acquired by the image processing device 15. May be transmitted to the second image processing device 25.

일 실시예에 따르면 영상 처리 장치는 도 6에서 상술한 바와 같이, 제2 차량(20)의 영상 처리 장치(25)의 카메라 상태 정보 및 제3 차량(30)의 영상 처리 장치(35)의 카메라 상태 정보가 각각 소정의 조건을 만족하는지 여부를 판단하고, 이에 따라 전방 영상 정보 및 후방 영상 정보를 수신할 수 있다.According to an embodiment, the image processing apparatus includes camera state information of the image processing apparatus 25 of the second vehicle 20 and the camera of the image processing apparatus 35 of the third vehicle 30, as described above in FIG. 6. It is possible to determine whether the state information satisfies a predetermined condition, and receive front image information and rear image information accordingly.

영상 처리 장치(15)는 디스플레이부(212)를 통해 전방 영상 정보를 전방 화면에 표시 및 후방 영상 정보를 후방 화면에 표시할 수 있다(S3400). 디스플레이부(212)는 도 4를 통해 상술한 바와 같이, 전방 영상 영역(S1) 및 후방 영상 영역(S2)을 포함할 수 있다. 영상 처리 장치(15)는 이로써 제2 차량(20) 및 제3 차량(30)의 존재에 방해 받지 않고, 전방 영상 정보 및 후방 영상 정보를 표시할 수 있다.The image processing apparatus 15 may display front image information on a front screen and display rear image information on a rear screen through the display unit 212 (S3400). The display unit 212 may include a front image area S1 and a rear image area S2 as described above with reference to FIG. 4. Accordingly, the image processing apparatus 15 may display front image information and rear image information without being disturbed by the presence of the second vehicle 20 and the third vehicle 30.

도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. Reference numerals are described in the embodiments shown in the drawings, and specific terms are used to describe the embodiments, but the present invention is not limited by specific terms, and the embodiments are all configurations commonly conceived by those skilled in the art. It can contain elements.

실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented with various numbers of hardware or/and software configurations that perform specific functions. For example, the embodiment is an integrated circuit configuration such as memory, processing, logic, a look-up table, etc., capable of executing various functions by controlling one or more microprocessors or other control devices Can be hired. Similar to how the components of the present invention can be implemented with software programming or software elements, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming components, including C, C++. , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. In addition, the embodiments may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means”, and “composition” can be used widely, and are not limited to mechanical and physical configurations. The term may include a meaning of a series of routines of software in connection with a processor or the like.

실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections that can be replaced or additionally It may be referred to as a connection, or circuit connections. In addition, if there is no specific mention such as “essential” or “importantly”, it may not be an essential component for the application of the present invention.

실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다. In the specification of the embodiment (especially in the claims), the use of the term “above” and a similar reference term may correspond to both the singular and the plural. In addition, when a range is described in an embodiment, the invention to which individual values falling within the range are applied (unless otherwise stated), it is the same as describing each individual value constituting the range in the detailed description. . Finally, if there is no clearly stated or contrary to the order of steps constituting the method according to the embodiment, the steps may be performed in an appropriate order. The embodiments are not necessarily limited according to the order of description of the steps. The use of all examples or illustrative terms (for example, etc.) in the embodiments is merely for describing the embodiments in detail, and the scope of the embodiments is limited by the above examples or illustrative terms unless limited by the claims. It is not. In addition, those skilled in the art can recognize that various modifications, combinations, and changes may be configured according to design conditions and factors within the scope of the appended claims or their equivalents.

10, 20, 30, 40, 100 차량
15, 25, 35, 45, 200 영상 처리 장치
서버 300
210 출력부
220 입력부
230 센싱부
240 메모리
250 통신부
10, 20, 30, 40, 100 vehicles
15, 25, 35, 45, 200 image processing unit
Server 300
210 output
220 input
230 sensing unit
240 memory
250 Department of Communications

Claims (10)

제1 차량에 탑재되어 차량 외부의 영상 정보를 획득하는 카메라;
상기 영상 정보를 표시하는 디스플레이;
영상 정보를 송수신할 수 있는 통신부; 및
상기 통신부를 통해 전방의 소정 거리 내에 위치하는 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신하고, 상기 디스플레이의 전방 영상 영역을 통해 상기 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하는 제어부를 포함하고,
상기 제어부는 상기 통신부를 통해 상기 제2 차량의 영상 처리 장치와 통신하여 상기 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득하고,
상기 제2 차량의 영상 처리 장치의 카메라 상태 정보에 기초하여, 상기 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 획득하거나 상기 제2 차량의 전방에 위치하는 제3 차량의 영상 처리 장치를 탐지하는
영상 처리 장치.
A camera mounted on the first vehicle to obtain image information outside the vehicle;
A display for displaying the image information;
A communication unit capable of transmitting and receiving image information; And
The front image information obtained by the image processing apparatus of the second vehicle located within a predetermined distance in front of the communication unit is received, and the front image information obtained by the image processing apparatus of the second vehicle through the front image region of the display Including a control unit for displaying,
The control unit communicates with the image processing device of the second vehicle through the communication unit to obtain camera state information of the image processing device of the second vehicle,
Based on the camera state information of the image processing device of the second vehicle, the image processing device of the third vehicle, which is located in front of the second vehicle, or obtains the front image information obtained by the image processing device of the second vehicle Detectable
Image processing device.
제1 항에 있어서,
상기 제어부는
상기 제3 차량의 영상 처리 장치가 획득한 전방 영상 정보를 수신할 수 있는,
영상 처리 장치.
The method of claim 1,
The control unit
Capable of receiving front image information obtained by the image processing apparatus of the third vehicle,
Image processing device.
제1 항에 있어서,
상기 제어부는
상기 전방의 소정의 거리를 조절하여, 상기 제3 차량의 영상 처리 장치를 탐지할 수 있는
영상 처리 장치.
The method of claim 1,
The control unit
By adjusting the predetermined distance in front, the image processing device of the third vehicle can be detected.
Image processing device.
삭제delete 제1 항에 있어서,
상기 카메라 상태 정보는,
상기 제2 차량의 영상 처리 장치의 전방 카메라 구비 여부, 상기 제2 차량의 영상 처리 장치의 전방 카메라 작동 상태 및 상기 제2 차량의 영상 처리 장치의 전방 카메라 촬영 화질 중 선택되는 적어도 하나를 포함하는
영상 처리 장치.
The method of claim 1,
The camera status information,
Including at least one selected from whether a front camera of the image processing apparatus of the second vehicle is provided, a front camera operation state of the image processing apparatus of the second vehicle, and a front camera image quality of the image processing apparatus of the second vehicle
Image processing device.
제1 항에 있어서,
상기 제어부는, 상기 통신부를 통해 후방의 소정 거리 내에 위치하는 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 수신하고,
상기 디스플레이의 전방 영상 영역을 통해 상기 제2 차량의 영상 처리 장치가 획득한 전방 영상 정보를 표시하고, 상기 디스플레이의 후방 영상 영역을 통해 상기 제4 차량의 영상 처리 장치가 획득한 후방 영상 정보를 표시하는
영상 처리 장치.
The method of claim 1,
The control unit receives rear image information obtained by an image processing apparatus of a fourth vehicle located within a predetermined distance from the rear through the communication unit,
The front image information obtained by the image processing apparatus of the second vehicle is displayed through the front image area of the display, and the rear image information obtained by the image processing apparatus of the fourth vehicle is displayed through the rear image region of the display. doing
Image processing device.
제6 항에 있어서,
상기 제어부는 상기 디스플레이의 상기 전방 영상 영역 및 상기 후방 영상 영역을 동시에 활성화할 수 있는
영상 처리 장치.
The method of claim 6,
The controller can simultaneously activate the front image area and the rear image area of the display.
Image processing device.
제1 영상 처리 장치의 전방 카메라를 통해 전방 영상 정보를 획득하는 제1 차량;
상기 제1 차량의 후방에 위치하고, 제2 영상 처리 장치의 후방 카메라를 통해 후방 영상 정보를 획득하는 제2 차량; 및
상기 제1 영상 처리 장치가 획득한 전방 영상 정보 및 상기 제2 영상 처리 장치가 획득한 후방 영상 정보를 수신하고,
상기 제1 영상 처리 장치에 상기 제2 영상 처리 장치가 획득한 상기 후방 영상 정보를 송신하고, 상기 제2 차량에 상기 제1 영상 처리 장치가 획득한 상기 전방 영상 정보를 송신하는 서버를 포함하는
시스템.
A first vehicle that acquires front image information through a front camera of the first image processing device;
A second vehicle positioned at the rear of the first vehicle and obtaining rear image information through a rear camera of a second image processing apparatus; And
Receiving front image information acquired by the first image processing device and rear image information acquired by the second image processing device,
And a server for transmitting the rear image information acquired by the second image processing device to the first image processing device, and transmitting the front image information acquired by the first image processing device to the second vehicle
system.
제1 차량의 영상 처리 장치가 상기 제1 차량의 제1 소정 거리 내 제2 차량의 영상 처리 장치를 감지하는 단계;
상기 제1 차량의 영상 처리 장치가 상기 제2 차량의 영상 처리 장치의 카메라 상태 정보를 획득하는 단계; 및
상기 제1 차량의 영상 처리 장치가 상기 제2 차량의 영상 처리 장치의 카메라 상태 정보에 기초하여, 상기 제2 차량의 영상 처리 장치에서 획득한 영상 정보를 획득하거나 또는 상기 제1 소정 거리보다 큰 제2 소정 거리 내 제3 차량의 영상 처리 장치를 탐지하는 단계를 포함하는
영상 표시 방법.
Detecting, by an image processing device of a first vehicle, an image processing device of a second vehicle within a first predetermined distance of the first vehicle;
Obtaining, by the image processing device of the first vehicle, camera state information of the image processing device of the second vehicle; And
The image processing apparatus of the first vehicle acquires the image information obtained from the image processing apparatus of the second vehicle based on the camera state information of the image processing apparatus of the second vehicle, or a second distance greater than the first predetermined distance. 2 Including the step of detecting the image processing device of the third vehicle within a predetermined distance
Video display method.
제9 항의 방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium in which a program for performing the method of claim 9 is recorded.
KR1020180172787A 2018-12-28 2018-12-28 Video processing apparatus and operating method for the same KR102151163B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180172787A KR102151163B1 (en) 2018-12-28 2018-12-28 Video processing apparatus and operating method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180172787A KR102151163B1 (en) 2018-12-28 2018-12-28 Video processing apparatus and operating method for the same

Publications (2)

Publication Number Publication Date
KR20200082317A KR20200082317A (en) 2020-07-08
KR102151163B1 true KR102151163B1 (en) 2020-09-02

Family

ID=71600435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180172787A KR102151163B1 (en) 2018-12-28 2018-12-28 Video processing apparatus and operating method for the same

Country Status (1)

Country Link
KR (1) KR102151163B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102324059B1 (en) * 2021-04-26 2021-11-10 주식회사 조인트리 Flight video providing system for drone operation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267052A (en) 2009-05-14 2010-11-25 Denso Corp On-vehicle display device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102020624B1 (en) * 2012-09-03 2019-09-10 현대모비스 주식회사 Front Video Providing Method and Display Apparatus
KR101744724B1 (en) * 2015-03-19 2017-06-08 현대자동차주식회사 Audio navigation device, vehicle having the same, user device, and method for controlling vehicle
KR101767432B1 (en) * 2015-11-12 2017-08-14 현대오트론 주식회사 Apparatus for displaying front vehicle using head-up display and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010267052A (en) 2009-05-14 2010-11-25 Denso Corp On-vehicle display device

Also Published As

Publication number Publication date
KR20200082317A (en) 2020-07-08

Similar Documents

Publication Publication Date Title
KR101867915B1 (en) Method for executing vehicle function using wearable device and vehicle for carrying out the same
US10298741B2 (en) Method and device for assisting in safe driving of a vehicle
EP3118047B1 (en) Display control device, display device, display control program, display control method, and recording medium
US9451062B2 (en) Mobile device edge view display insert
US20190317328A1 (en) System and method for providing augmented-reality assistance for vehicular navigation
US9734412B2 (en) Method and system of communicating vehicle information
WO2017163514A1 (en) Spectacle-type wearable terminal, and control method and control program for same
JPWO2016067574A1 (en) Display control apparatus and display control program
US20160140760A1 (en) Adapting a display on a transparent electronic display
EP3285475B1 (en) Photographing apparatus and method for controlling photographing apparatus
JP2016124393A (en) Vehicular display device
US20210061301A1 (en) Methods and systems for monitoring rear objects in a vehicle
CN111913569A (en) Presenting visual information about a device
KR20190045919A (en) Control method, apparatus, program and storage medium of an equalizer
KR102151163B1 (en) Video processing apparatus and operating method for the same
KR20170079045A (en) Method and apparatus for providing user interface for vehicle
KR20140128840A (en) Image-processing Apparatus for Car and Method of Controlling The Same
JPWO2018042976A1 (en) IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, RECORDING MEDIUM, AND IMAGE DISPLAY SYSTEM
JP2018072030A (en) On-vehicle device and method for specifying portable terminal
US9981387B2 (en) Robot control system
KR20160058443A (en) Wireless signal receiving unit, rear sensor for vehicle and method for sensing rear
KR20200087321A (en) Interface apparatus and operating method for the same
KR20190043032A (en) Electronic device and method for correcting image based on object included image
JP2021176107A (en) Drive recorder, approach detection method, and approach detection program
KR20180076464A (en) Drowsiness drive warning system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant