KR101284169B1 - Apparatus and method for recording accident image - Google Patents

Apparatus and method for recording accident image Download PDF

Info

Publication number
KR101284169B1
KR101284169B1 KR1020110089097A KR20110089097A KR101284169B1 KR 101284169 B1 KR101284169 B1 KR 101284169B1 KR 1020110089097 A KR1020110089097 A KR 1020110089097A KR 20110089097 A KR20110089097 A KR 20110089097A KR 101284169 B1 KR101284169 B1 KR 101284169B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
event
images
projection surface
Prior art date
Application number
KR1020110089097A
Other languages
Korean (ko)
Other versions
KR20130025662A (en
Inventor
이종욱
이성현
Original Assignee
에스엘 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스엘 주식회사 filed Critical 에스엘 주식회사
Priority to KR1020110089097A priority Critical patent/KR101284169B1/en
Publication of KR20130025662A publication Critical patent/KR20130025662A/en
Application granted granted Critical
Publication of KR101284169B1 publication Critical patent/KR101284169B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/302Detection related to theft or to other events relevant to anti-theft systems using recording means, e.g. black box
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D41/00Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D9/00Recording measured values
    • G01D9/005Solid-state data loggers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/304Acceleration sensors
    • B60Y2400/3042Collision sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

사고 영상 기록 장치 및 방법이 제공된다. 상기 사고 영상 기록 장치는 차량 주변의 적어도 하나 이상의 서로 다른 방향에 대한 복수의 영상을 촬영하는 영상 획득부, 센서를 통해 이벤트가 감지된 경우 상기 영상 획득부에 의해 촬영된 복수의 영상을 저장하도록 제어하는 제어부, 및 상기 저장된 복수의 영상을 상기 차량 주변을 형성하는 3차원 투영면에 투영시켜 상기 차량의 주변 합성 영상을 생성하는 주변 영상 생성부를 포함한다. Provided are an accident video recording apparatus and method. The accident image recording apparatus controls to store a plurality of images photographed by the image acquisition unit when an event is detected through a sensor for capturing a plurality of images in at least one or more different directions around the vehicle. And a peripheral image generation unit configured to project the plurality of stored images onto a three-dimensional projection surface forming the periphery of the vehicle to generate a surrounding composite image of the vehicle.

Description

사고 영상 기록 장치 및 방법{Apparatus and method for recording accident image}Apparatus and method for recording accident image}

본 발명은 차량의 주변 영상 제공 장치 및 방법에 관한 것으로서, 보다 상세하게는 주정차 시에 사고가 발생한 경우, 예를 들어 주차 중 강제 문열림 및 도난 상황 또는 타 차량의 접근으로 인한 접촉 사고와 같은 상황이 발생한 경우, 일정 시간 동안 촬영된 복수의 영상을 3차원 투영면에 투영시켜 사고가 발생한 위치에서 바라본 합성영상을 제공하기 위한 사고 영상 기록 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for providing a surrounding image of a vehicle, and more particularly, when an accident occurs during a parking stop, for example, a situation such as a forced door opening and theft while parking or a contact accident due to the approach of another vehicle. In this case, the present invention relates to an accident image recording apparatus and a method for providing a composite image viewed from a location where an accident occurs by projecting a plurality of images photographed for a predetermined time on a three-dimensional projection surface.

일반적으로 차량의 주변 영상을 촬영하여 디스플레이 시켜주는 시스템이 차량에 보편적으로 설치되어 있지 않아, 운전자는 단지 자신의 육안을 통해 차량 주변을 확인하거나, 인사이드 미러 또는 아웃 사이드 미러를 통해 후방을 확인하고 차량이 전진, 후진 또는 선회하도록 하여 왔다. In general, there is no universal system installed in the vehicle to capture and display the surrounding image of the vehicle, so the driver can check the surroundings of the vehicle only through his / her own eyes or the rear through the inside mirror or the outside mirror. This has been made forward, backward or turning.

그러나 차종에 따라서는 운전석에 앉아 전후방의 주변 환경을 쉽게 확인할 수 있는 것이 있는가 하면, 육안 또는 미러를 통해 확인할 수 없는 사각 지대가 존재하기 마련이다. However, some vehicles can sit in the driver's seat and easily check the surrounding environment of the front and rear, and there are blind spots that cannot be seen through the naked eye or mirrors.

따라서, 최근에는 차량의 전후 좌우 방향에 각각 설치된 카메라를 통하여 주변 환경을 촬영하고, 촬영된 영상을 조합하여 차량에 구비된 디스플레이 장치를 통해 차량의 주변 영상을 디스플레이하는 장치가 개발되고 있다.Therefore, recently, an apparatus for photographing a surrounding environment through a camera installed in front, rear, left, and right directions of a vehicle, and displaying the surrounding image of the vehicle through a display device provided in the vehicle by combining the photographed images has been developed.

이러한 장치들은 통상적으로 주행 중의 차량의 주변 환경 정보를 얻어내기 위해 촬영을 하고 이를 운전자에게 영상으로 제공한다. Such devices typically take a picture to obtain the environment information of the vehicle while driving and provide the image to the driver.

그러나, 이처럼 주행중인 상황 이외에도, 운전자가 차량에 탑승하지 않고 있는 상황, 즉 주차 혹은 정차시에 발생할 수 있는 사고에 대한 영상 정보를 확보하여, 추후에 이를 3차원 투영면에 합성한 영상으로 제공함으로써 운전자의 부재시 발생한 사고에 대한 정확한 상황 정보를 파악할 수 있게 하는 장치 및 방법이 요구되고 있다. However, in addition to such driving conditions, the driver obtains image information about a situation where the driver is not in the vehicle, that is, an accident that may occur during parking or stopping, and later provides the image as a composite image on a three-dimensional projection surface. There is a need for an apparatus and method for identifying accurate situational information on an accident in the absence of an emergency.

종래의 경우에는 전방 또는 후방에 설치된 카메라를 이용하여 사고 영상을 기록할 뿐이지만, 이러한 종래의 기술에 따르면, 예를 들어 주차중인 차량의 측면에 대해 타 차량이 접촉 사고를 일으켰을 경우, 상기 타 차량의 차량 번호와 같은 정보를 구체적이고 정확하게 얻어낼 수 없다는 문제가 있다. In the conventional case, only the accident image is recorded by using a camera installed at the front or the rear, but according to the conventional technique, for example, when another vehicle causes an accident on the side of a parked vehicle, the other vehicle There is a problem in that it is impossible to obtain specific and accurate information such as the vehicle number.

더 나아가, 주정차된 차량의 외부에 별도의 CCTV 카메라가 설치되어 있을 것이라는 보장이 없고, 설사 별도의 외부 카메라가 설치되어 있다고 하더라도 다른 장애물의 시야에 가려진다거나 혹은 상기 카메라의 촬영 각도를 벋어난 영역에서 위와 같은 사고가 발생하는 경우에는 사고 상황에 대한 적절한 정보를 얻어낼 수 없다는 문제가 있다. Furthermore, there is no guarantee that a separate CCTV camera will be installed on the outside of a parked vehicle, and even if a separate external camera is installed, it will be covered by other obstacles or in an area beyond the shooting angle of the camera. In case of an accident like the above, there is a problem in that proper information on the accident situation cannot be obtained.

본 발명은 상기한 문제점을 해결하기 위해 고안된 것으로서, 본 발명이 해결하려는 과제는, 차량 비운행시 즉 상기 차량이 주정차 상황에서 도난 혹은 접촉 사고가 발생한 시점의 전후 일정 시간 동안 촬영된 복수의 영상을 저장하고 저장된 복수의 영상을 3차원 투영면 상에 투영시켜 사고가 발생한 위치에서 바라본 합성영상을 제공함으로써 운전자의 부재시 발생한 사고에 대한 정확한 상황 정보를 파악할 수 있게 하는 사고 영상 기록 장치 및 그 방법을 제공하는 것이다.The present invention has been devised to solve the above problems, and an object of the present invention is to store a plurality of images taken during a certain time before and after a vehicle is not driven, that is, when a vehicle is stolen or a contact accident occurs. The present invention provides an accident image recording apparatus and a method for projecting a plurality of stored images on a three-dimensional projection surface to provide a composite image viewed from a location where an accident occurred, so that accurate situation information on an accident occurred in the absence of a driver can be grasped. .

본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 사고 영상 기록 장치의 일 태양은 차량 주변의 적어도 하나 이상의 서로 다른 방향에 대한 복수의 영상을 촬영하는 영상 획득부; 센서를 통해 이벤트가 감지된 경우 상기 영상 획득부에 의해 촬영된 복수의 영상을 저장하도록 제어하는 제어부; 및 상기 저장된 복수의 영상을 상기 차량 주변을 형성하는 3차원 투영면에 투영시켜 상기 차량의 주변 합성 영상을 생성하는 주변 영상 생성부를 포함할 수 있고, 더 나아가, 상기 이벤트가 감지된 시점에서 바라본 상기 차량의 주변 합성 영상을 표시하는 디스플레이부를 더 포함할 수 있다. One aspect of the accident image recording apparatus of the present invention for solving the above problems is an image acquisition unit for photographing a plurality of images of at least one or more different directions around the vehicle; A controller configured to store a plurality of images captured by the image acquisition unit when an event is detected through a sensor; And a peripheral image generator configured to project the plurality of stored images onto a three-dimensional projection surface forming the periphery of the vehicle, thereby generating a peripheral composite image of the vehicle. Furthermore, the vehicle viewed from the time when the event is detected The display unit may further include a display configured to display the surrounding composite image of the.

상기 과제를 해결하기 위한 본 발명의 사고 영상 기록 방법의 일 태양은 센서를 통해 차량 혹은 상기 차량 내부의 이벤트를 감지하는 단계; 상기 차량 주변의 적어도 하나 이상의 서로 다른 방향에 대한 복수의 영상을 촬영 및 저장하는 단계; 및 상기 저장된 복수의 영상을 상기 차량 주변을 설정하는 투영면에 합성하여 상기 차량의 주변 합성 영상을 생성하는 단계를 포함할 수 있다.One aspect of the accident image recording method of the present invention for solving the above problems comprises the steps of detecting a vehicle or an event inside the vehicle through a sensor; Photographing and storing a plurality of images of at least one different direction around the vehicle; And synthesizing the stored plurality of images on a projection surface for setting the vehicle periphery to generate a surrounding synthesized image of the vehicle.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상기와 같은 본 발명의 사고 영상 기록 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the accident image recording apparatus and method of the present invention as described above has one or more of the following effects.

차량의 주변 영상 제공 시스템이 활성화되지 않은 상태인 차량의 비주행 상황에서 외부로부터의 이벤트가 발생한 것을 감지한 경우에는, 그 감지된 시점을 기준으로 일정 기간 동안 차량의 주변 영상 제공 시스템을 활성화시킴으로써 차량의 탈주, 주차시 접촉 사고를 발생한 타 차량, 사람 및 주변 상황을 녹화 저장한다.If an external event is detected in a non-driving situation of a vehicle in which the surrounding image providing system of the vehicle is not activated, the vehicle is activated by activating the surrounding image providing system of the vehicle for a predetermined period of time based on the detected time. Records and stores other vehicles, people and surroundings that caused contact accidents during breakout and parking.

이렇게 저장된 영상은 추후 3차원 투영면에 합성한 영상으로 제공함으로써 운전자의 부재시 발생한 사고에 대한 정확한 상황 정보를 파악할 수 있게 할 수 있다. The stored image may be provided as an image synthesized on a three-dimensional projection plane later, so that accurate situation information on an accident occurring in the absence of a driver may be grasped.

도 1은 본 발명의 실시예에 따른 사고 영상 기록 장치가 도시된 블록도이다.
도 2는 본 발명의 실시예에 따른 영상 획득부가 도시된 블록도이다.
도 3은 본 발명의 실시예에 따른 주변 영상 생성부에 의해 생성되는 주변 영상이 도시된 개략도이다.
도 4는 본 발명의 실시예에 따른 주변 영상 생성부가 도시된 블록도이다.
도 5는 본 발명의 실시예에 따른 영상 획득부의 설치 위치가 도시된 개략도이다.
도 6은 본 발명의 일 실시예에 따른 사고 영상 기록 장치가 측면 접촉 이벤트 발생시 아래로 내려다 본 영상을 보여주는 개략도이다.
도 7은 도 6의 점선 영역이 확대 도시된 개략도이다.
도 8은 본 발명의 일 실시예에 따른 사고 영상 기록 장치가 측면 접촉 이벤트 발생시 이벤트 발생 시점에서 바라본 합성 영상의 예시도이다.
도 9는 강제 문 열림 이벤트에 대해 본 발명의 일 실시예에 따른 사고 영상 기록 장치가 촬영한 영상을 3차원 투영면에 합성한 영상을 보여주는 개략도이다.
도 10 및 도 11은 본 발명의 일 실시예에 따른 사고 영상 기록 방법을 설명하는 블록도이다.
1 is a block diagram showing an accident image recording apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating an image acquisition unit according to an embodiment of the present invention.
3 is a schematic diagram illustrating a peripheral image generated by a peripheral image generator according to an exemplary embodiment of the present invention.
4 is a block diagram illustrating a peripheral image generator according to an exemplary embodiment of the present invention.
5 is a schematic diagram showing the installation position of the image acquisition unit according to an embodiment of the present invention.
6 is a schematic view showing an image of the accident image recording apparatus according to an embodiment of the present invention looking down when a side contact event occurs.
7 is an enlarged schematic view of the dotted line region of FIG. 6.
8 is an exemplary view of a composite image viewed from an event occurrence time when an accident image recording apparatus according to an embodiment of the present invention occurs.
9 is a schematic diagram illustrating an image obtained by synthesizing an image captured by an accident image recording apparatus according to an embodiment of the present invention with respect to a forced door opening event on a three-dimensional projection surface.
10 and 11 are block diagrams illustrating an accident image recording method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

따라서, 몇몇 실시예에서, 잘 알려진 공정 단계들, 잘 알려진 구조 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다. Thus, in some embodiments, well known process steps, well-known structures, and well-known techniques are not specifically described to avoid an undue interpretation of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 포함한다(comprises) 및/또는 포함하는(comprising)은 언급된 구성요소, 단계 및/또는 동작 이외의 하나 이상의 다른 구성요소, 단계 및/또는 동작의 존재 또는 추가를 배제하지 않는 의미로 사용한다. 그리고, "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It should be understood that the terms comprising and / or comprising the terms used in the specification do not exclude the presence or addition of one or more other components, steps and / or operations other than the stated components, steps and / . And "and / or" include each and any combination of one or more of the mentioned items.

또한, 본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 사시도, 단면도, 측면도 및/또는 개략도들을 참고하여 설명될 것이다. 따라서, 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 따라서, 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니라 제조 공정에 따라 생성되는 형태의 변화도 포함하는 것이다. 또한, 본 발명에 도시된 각 도면에 있어서 각 구성 요소들은 설명의 편의를 고려하여 다소 확대 또는 축소되어 도시된 것일 수 있다.Further, the embodiments described herein will be described with reference to the perspective view, cross-sectional view, side view, and / or schematic views, which are ideal illustrations of the present invention. Thus, the shape of the illustrations may be modified by manufacturing techniques and / or tolerances. Accordingly, the embodiments of the present invention are not limited to the specific forms shown, but also include variations in forms generated by the manufacturing process. In addition, in the drawings of the present invention, each constituent element may be somewhat enlarged or reduced in view of convenience of explanation.

이하, 본 발명의 실시예들에 의하여 차량의 주변 영상 제공 장치 및 방법을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.Hereinafter, the present invention will be described with reference to the drawings for describing the apparatus and method for providing a surrounding image of a vehicle according to embodiments of the present invention.

도 1은 본 발명의 실시예에 따른 사고 영상 기록 장치가 도시된 블록도이다. 1 is a block diagram showing an accident image recording apparatus according to an embodiment of the present invention.

우선, 도 1을 참조하면, 본 발명의 실시예들에 따른 사고 영상 기록 장치는 영상 획득부(100), 주변 영상 생성부(200), 및 제어부(300)를 포함할 수 있으며, 더 나아가, 디스플레이부를 포함할 수 있다.First, referring to FIG. 1, an accident image recording apparatus according to embodiments of the present disclosure may include an image acquisition unit 100, a peripheral image generation unit 200, and a controller 300. It may include a display unit.

영상 획득부(100)는 차량 주변의 서로 다른 방향에 대한 복수의 영상을 획득하고, 주변 영상 생성부(200)는 획득된 복수의 영상을 이용하여 차량 주변 합성 영상을 생성하며, 제어부(300)는 차량의 외부로부터 발생한 이벤트를 센서를 통해 감지할 경우, 영상 획득부(100)를 활성화시켜 차량 주변 혹은 차량 내부의 영상 촬영을 일정 기간 수행하고 상기 촬영된 영상을 저장하도록 제어한다. 디스플레이부(400)는 상기 저장된 영상을 이용하여 주변 영상 생성부가 생성한 합성 영상을 이후 사용자의 명령에 따라 디스플레이한다. The image acquirer 100 obtains a plurality of images of different directions around the vehicle, and the surrounding image generator 200 generates a composite image of the vehicle surroundings using the obtained plurality of images, and the controller 300. When the sensor detects an event generated from the outside of the vehicle, the image acquisition unit 100 is activated to perform image capturing around the vehicle or the interior of the vehicle for a predetermined period of time and store the captured image. The display unit 400 displays the composite image generated by the surrounding image generator by using the stored image according to a user's command.

도 2는 본 발명의 실시예에 따른 영상 획득부가 도시된 블록도이고, 도 3은 본 발명의 실시예에 따른 주변 영상 생성부에 의해 생성되는 주변 영상이 도시된 개략도이며, 도 4는 본 발명의 실시예에 따른 주변 영상 생성부가 도시된 블록도이고, 도 5는 본 발명의 실시예에 따른 영상 획득부의 설치 위치가 도시된 개략도이다.2 is a block diagram showing an image acquisition unit according to an embodiment of the present invention, Figure 3 is a schematic diagram showing a peripheral image generated by the peripheral image generating unit according to an embodiment of the present invention, Figure 4 is a present invention FIG. 5 is a block diagram illustrating a peripheral image generator according to an exemplary embodiment, and FIG. 5 is a schematic diagram illustrating an installation position of an image acquirer according to an exemplary embodiment.

도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 획득부(100)는 차량에 설치되는 복수의 카메라(111~114) 및 복수의 카메라(111~114)에 의해 획득된 영상을 저장하는 영상 저장부(120)를 포함할 수 있다.As shown in FIG. 2, the image acquisition unit 100 stores images acquired by a plurality of cameras 111 to 114 and a plurality of cameras 111 to 114 installed in a vehicle. The image storage unit 120 may be included.

복수의 카메라(111~114)는 본 발명에 따른 사고 영상 기록 장치가 설치된 차량이 운행중에 있지 않은 경우에는 차량 주변 상황에 대한 촬영을 수행하지 않을 수 있다. 하지만, 어느 시점에서든 제어부(300)로부터의 제어 신호에 따라 활성화되어, 일정 기간동안 차량 주변 또는 차량 내부 상황에 대한 촬영을 수행하고, 일정 기간 동안 수행된 촬영 결과를 저장할 수 있다. The plurality of cameras 111 to 114 may not photograph the situation around the vehicle when the vehicle in which the accident image recording apparatus according to the present invention is installed is not in operation. However, at any point in time, it is activated according to a control signal from the control unit 300 to perform photographing of a situation around a vehicle or an interior of a vehicle for a predetermined period, and store a photographing result performed for a predetermined period of time.

다른 실시예로서, 주행 또는 주차 시 촬영은 지속적으로 이루어지되, 사고 발생 시점을 기준으로 전 후 일정 시간동안에 촬영된 복수의 영상들을 저장하도록 할 수도 있다. As another embodiment, photographing may be continuously performed while driving or parking, and a plurality of images photographed for a predetermined time before and after the accident occurrence may be stored.

본 발명의 실시예에서는 복수의 카메라(111~114)가 도 5와 같이, 차량(10)의 전후 좌우 방향에 각각 설치되는 경우를 예를 들어 설명하고 있으나, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않고 카메라의 설치 개수나 설치 방향은 용도 및 필요에 따라 다양하게 변경될 수 있다.In the exemplary embodiment of the present invention, a case in which the plurality of cameras 111 to 114 are respectively installed in front, rear, left, and right directions of the vehicle 10 is described as an example. However, this is to assist in understanding the present invention. As an example, the present invention is not limited thereto, and the number or installation directions of the cameras may be variously changed according to a use and a need.

예를 들어, 복수의 카메라(111~114)가 큰 화각을 가지는 광각 렌즈가 사용된 경우에는 설치 개수가 감소될 수도 있고, 복수의 카메라(111~114)가 적은 화각을 가지는 카메라인 경우에는 설치 개수가 증가될 수도 있다. 이때, 복수의 카메라(111~114)에 의해 획득되는 영상은 차량(10)의 주변 전방향, 즉 360도에 대한 영상을 획득할 수 있게 되며, 본 발명의 실시예에서와 같이 복수의 카메라(111~114)가 차량(10)의 전후 좌우 방향에 각각 설치되는 경우, 각 카메라는 180도의 화각을 가지는 광각 렌즈가 이용된 카메라일 수 있다.For example, when a plurality of cameras 111 to 114 have a wide angle lens having a large angle of view, the number of installations may be reduced, or when the plurality of cameras 111 to 114 have a camera angle with a small angle of view. The number may be increased. In this case, the images acquired by the plurality of cameras 111 to 114 may acquire an image about the surrounding omnidirectional direction of the vehicle 10, that is, 360 degrees, and the plurality of cameras (as in the embodiment of the present invention). When 111 to 114 are respectively installed in the front, rear, left, and right directions of the vehicle 10, each camera may be a camera using a wide-angle lens having an angle of view of 180 degrees.

이하, 본 발명의 실시예에서 복수의 카메라(111~114)는 제 1카메라(111), 제 2카메라(112), 제 3카메라(113) 및 제 4카메라(114)를 포함할 수 있으며, 각각 차량(10)의 전방 영역(111a), 후방 영역(112a), 좌측 영역(113a) 및 우측 영역(114a)의 영상을 획득하는 경우를 예를 들어 설명하기로 한다. Hereinafter, in the embodiment of the present invention, the plurality of cameras 111 to 114 may include a first camera 111, a second camera 112, a third camera 113, and a fourth camera 114, An example of obtaining images of the front region 111a, the rear region 112a, the left region 113a and the right region 114a of the vehicle 10 will be described as an example.

또한, 본 발명의 실시예에서 제 1카메라(111)는 본 넷의 중심에 설치되고, 제 2카메라(112)는 차량(10)의 후방 범퍼 상부에 설치되며, 제 3 및 제 4카메라(113, 114)는 차량(10)의 좌우측 아웃 사이드 미러에 설치되는 경우를 예를 들어 설명하기로 하나, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서 이에 한정되지 않고 복수의 카메라(111~114)의 설치 위치는 용도 및 필요에 따라 다양하게 변경될 수 있다.In addition, in the embodiment of the present invention, the first camera 111 is installed in the center of the bone net, the second camera 112 is installed on the upper rear bumper of the vehicle 10, and the third and fourth cameras 113 , 114 will be described in the case of being installed in the left and right outside mirrors of the vehicle 10, for example, but this is only an example to help the understanding of the present invention is not limited thereto and a plurality of cameras (111 ~ 114) The installation position of) may be changed in various ways depending on the purpose and needs.

영상 저장부(120)는 복수의 카메라(111~114)에 의해 획득된 영상을 저장할 수 있으며, 영상 저장부(120)로는 캐쉬, RAM, SRAM, DRAM, ROM, PROM, EPROM, EEPROM, 플래쉬 메모리 및 하드 디스크 드라이브 등이 사용될 수 있으나, 이에 한정되지 않는다. The image storage unit 120 may store images acquired by the plurality of cameras 111 to 114, and the image storage unit 120 may include a cache, RAM, SRAM, DRAM, ROM, PROM, EPROM, EEPROM, and flash memory. And a hard disk drive may be used, but is not limited thereto.

영상 저장부(120)는 센서(500)가 감지한 차량 외부로부터의 이벤트에 반응하여 복수의 카메라(111~114)가 촬영하여 획득한 영상을 저장한다. 영상 저장부(120)는 하드 디스크, 플래시 메모리, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC(Multimedia Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 장치의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.The image storage unit 120 stores images captured by the plurality of cameras 111 to 114 in response to an event from the outside of the vehicle sensed by the sensor 500. The image storage unit 120 may include a hard disk, a flash memory, a compact flash card (CF), a secure digital card (SD), a smart card (SM), a multimedia card (MMC), a memory stick, or the like. As a module capable of inputting / outputting information, the module may be provided inside the apparatus or may be provided in a separate apparatus.

이렇게 저장된 복수의 영상들은 이후 주변 영상 생성부(200)에 의해 3차원 투영면에 투영시켜 가상 시점을 사고 발생 위치로 이동된 합성 영상을 생성한다 The plurality of stored images are then projected onto the three-dimensional projection surface by the peripheral image generator 200 to generate a composite image in which the virtual viewpoint is moved to the accident occurrence position.

한편, 복수의 카메라(111~114)는 획득된 영상을 영상 저장부(120)로 전송하기 이전에 데이터 전송이 용이하도록 영상을 압축 형태의 포맷으로 변환할 수 있고, 압축 포맷은 MPEG-1 또는 MPEG-4 등의 공지된 다양한 포맷이 사용될 수 있으며, 복수의 카메라(111~114)는 획득된 영상의 데이터 포맷 변환을 위한 프로세서를 포함할 수 있다.Meanwhile, the plurality of cameras 111 to 114 may convert the image into a compressed format to facilitate data transmission before transmitting the obtained image to the image storage unit 120. The compressed format may be MPEG-1 or Various known formats such as MPEG-4 may be used, and the plurality of cameras 111 to 114 may include a processor for converting a data format of an acquired image.

주변 영상 생성부(200)는 투영면 설정부(210), 좌표 변환부(220) 및 영상 합성부(230)를 포함할 수 있다. The peripheral image generating unit 200 may include a projection surface setting unit 210, a coordinate converter 220, and an image synthesizer 230.

투영면 설정부(210)는 차량 출고 시 미리 설정된 투영면이나 운전자에 의해 선택된 투영면을 설정할 수 있다. 예를 들어, 차량 출고 시 여러 가지 테스트를 거쳐 최적의 투영면이 미리 설정되어 있을 수도 있고, 운전자가 미리 저장된 여러 종류의 투영면 중 원하는 투영면을 선택할 수도 있는 것이다. The projection surface setting unit 210 may set a projection surface preset when the vehicle is shipped or a projection surface selected by the driver. For example, an optimal projection plane may be preset through various tests when the vehicle is shipped, or the driver may select a desired projection plane among various kinds of previously stored projection planes.

본 발명의 실시예에서는 투영면이 반구형인 경우를 예를 들어 설명하기로 하나, 이는 본 발명의 이해를 돕기 위한 일 예에 불과한 것으로서, 이에 한정되지 않고 구형 및 평면형 등 다양한 투영면이 설정될 수 있으며, 투영면에서 차량은 투영면의 중심 부근에 위치하거나 임의의 위치를 가질 수 있다.In the exemplary embodiment of the present invention, a case in which the projection surface is hemispherical will be described by way of example. However, this is only an example to help understanding of the present invention, and the present invention is not limited thereto, and various projection surfaces such as a sphere and a plane may be set. In the projection plane the vehicle may be located near the center of the projection plane or have any position.

좌표 변환부(220)는 설정된 투영면에 대한 좌표 정보(예를 들어, 3차원 좌표 정보 등)를 저장할 수 있으며, 저장된 좌표 정보를 이용하여 영상 획득부(100)에서 획득된 영상의 좌표를 변환할 수 있다. 예를 들어, 좌표 변환부(220)는 영상 획득부(100)에 의해 획득된 영상에 대한 2차원 좌표를 설정된 투영면에 대한 3차원 좌표로 변환할 수 있는 것이다.The coordinate converter 220 may store coordinate information (for example, 3D coordinate information, etc.) of the set projection surface, and convert the coordinates of the image acquired by the image acquisition unit 100 using the stored coordinate information. Can be. For example, the coordinate converter 220 may convert two-dimensional coordinates of the image acquired by the image acquisition unit 100 into three-dimensional coordinates of the set projection plane.

영상 합성부(230)는 좌표 변환부(220)에 의해 변환된 좌표를 기초로 영상 획득부(100)에서 획득된 영상을 투영면 설정부(210)에 의해 설정된 투영면에 합성하여 주변 영상을 생성할 수 있게 된다. 예를 들어, 영상 합성부(230)는 도 3과 같이, 좌표 변환부(132)가 영상 획득부(100)에 의해 획득된 영상의 좌표를 설정된 투영면의 좌표로 변환하면, 변환된 좌표를 기초로 영상 획득부(100)에 의해 획득된 영상을 설정된 투영면에 합성함으로써, 주변 영상을 생성할 수 있으며, 생성된 주변 영상에서 차량(10)의 형태는 미리 설정된 형태이거나 운전자가 선택한 형태를 가질 수 있다.The image synthesizing unit 230 generates a peripheral image by synthesizing the image acquired by the image obtaining unit 100 based on the coordinates converted by the coordinate converting unit 220 to the projection surface set by the projection surface setting unit 210. It becomes possible. For example, as illustrated in FIG. 3, the image synthesizing unit 230 converts the coordinates of the image acquired by the image obtaining unit 100 to the coordinates of the set projection surface, based on the converted coordinates. By synthesizing the image acquired by the image acquisition unit 100 to the set projection surface, it is possible to generate the surrounding image, the shape of the vehicle 10 in the generated surrounding image may be a preset form or have a form selected by the driver. have.

이와 같이, 차량(10) 주변에 설정된 투영면(140)에 영상 획득부(100)에서 획득된 영상을 합성하여 주변 영상을 생성하는 경우, 주변 영상을 2차원 또는 3차원의 형태로 디스플레이할 수 있게 되며, 도 3의 화살표와 같이 시선 방향을 변경함으로써 가상 시점을 사고가 발생한 위치로 이동시켜 바라본 방향에서 볼 수 있게 된다. 또한, 시선 방향을 변경함에 있어서 차량(10)과의 거리도 변경할 수 있기 때문에 원하는 스케일로 보는 것도 가능하게 된다.As such, when the surrounding image is generated by synthesizing the image acquired by the image obtaining unit 100 with the projection surface 140 set around the vehicle 10, the surrounding image may be displayed in a two-dimensional or three-dimensional form. By changing the line of sight as shown by the arrow of FIG. 3, the virtual viewpoint can be moved to a position where an accident occurs and viewed in the direction viewed. In addition, since the distance to the vehicle 10 can also be changed in changing the direction of the eye, it is possible to view at a desired scale.

제어부(300)는 차량(10) 외부로부터의 이벤트가 발생하였음을 센서(500)를 통해 감지하면 그에 따라, 영상 획득부(100)에 의해 서로 다른 방향의 촬영 영상의 저장을 활성화하거나 또는 주변 영상 생성부(200)를 동시에 활성화한다.When the controller 300 detects that an event from the outside of the vehicle 10 has occurred through the sensor 500, the controller 300 activates storage of captured images in different directions by the image acquirer 100, or the surrounding image. Activate the generation unit 200 at the same time.

본 발명에서는 차량(10)이 운행하지 않는 주정차 시에 발생한 이벤트를 처리하는 것에 대해 중점적으로 설명하고 있으나, 이는 평상시 차량이 운행하고 있는 중에는 상시 영상 획득부(100), 주변 영상 생성부(200), 제어부(300) 및 디스플레이부(400)를 통하여 운전자가 차량 주변의 상황에 대해 촬영된 복수의 영상을 3차원 투영면에 투영시켜 가상시점에서 바라본 합성영상을 제공받고 있다는 것을 전제로 하기 때문이다. The present invention focuses on processing an event generated when a vehicle stops while the vehicle 10 does not operate, but this is always performed while the vehicle is running. The image capture unit 100 and the surrounding image generator 200 This is because the driver is projected through the control unit 300 and the display unit 400 to project a plurality of images photographed about a situation around the vehicle on a three-dimensional projection surface to provide a synthetic image viewed from a virtual viewpoint.

즉, 차량의 운행 및 이에 따른 영상 획득부(100) 등의 구성요소가 작동하지 않는 상황이라고 하더라도, 제어부는 외부 이벤트 발생시에는 언제든지 영상 획득부(100) 등의 작동을 개시하도록 제어할 수 있다. That is, even in a situation in which the driving of the vehicle and the corresponding components such as the image acquisition unit 100 do not operate, the controller may control to start the operation of the image acquisition unit 100 at any time when an external event occurs.

본 발명에서는 외부 이벤트 발생시 우선적으로 영상 획득부(100)가 차량 주변 또는 내부의 영상을 촬영하고 이를 저장하며, 추후에 서로 다른 방향을 촬영한 복수의 영상을 3차원 투영면에 투영시켜 사고 발생 시점에서 바라본 합성 영상을 디스플레이 하는 것은 후추 사용자의 명령에 따라 수행될 수 있다. 그러나, 반드시 이에 한정하는 것은 아니고, 촬영한 영상에 대해 사고 발생 위치에서 바라본 합성 영상으로 바로 디스플레이하거나 또는 합성한 영상을 저장하고 이후에 이를 디스플레이하는 것으로 할 수도 있음은 자명하다. In the present invention, when an external event occurs, the image acquisition unit 100 preferentially captures and stores an image around or inside the vehicle, and later projects a plurality of images photographing different directions onto a three-dimensional projection surface at an accident occurrence time. Displaying the synthesized image viewed may be performed according to the command of the pepper user. However, it is not necessarily limited thereto, and it is obvious that the captured image may be directly displayed as a synthesized image viewed from an accident occurrence location, or the synthesized image may be stored and displayed later.

본 발명에서 설명하는 이벤트는 차량(10)이 강제 문열림 또는 타 차량(20)의 상기 차량(10)에 대한 접촉사고일 수 있다. 즉 본 발명에 따른 사고 영상 기록 장치가 설치된 차량(10) 내부에 운전자가 존재하지 않은 상황, 예를 들어 주차 혹은 정차되어 있는 상황에서 제3자가 차량 내부로 침입하려 하거나, 혹은 운행하고 있는 타 차량(20)이 상기 차량(10)에 접촉 사고를 일으킨 경우가 주로 본 발명에서 설명하는 이벤트의 예가 될 것이다. The event described in the present invention may be a forced door opening of the vehicle 10 or a contact accident of the other vehicle 20 with the vehicle 10. That is, a third party attempts to intrude into the vehicle or is in operation in a situation in which the driver is not present in the vehicle 10 in which the accident image recording apparatus according to the present invention is installed, for example, while the vehicle is parked or stopped. The case where 20 causes a contact accident on the vehicle 10 will mainly be an example of the event described in the present invention.

그러나, 이벤트는 반드시 이에 한정하는 것은 아니다. 예를 들어 제3자가 차량(10)을 파손하기 위한 여타의 행위들일 수도 있고. 또는 상기 이벤트는 반드시 차량이 외부로부터 기인한 것이 아니라 차량 내부로부터 기인한 것일 수도 있는데 예를 들어 여름철 차량 내부에서 라이터 등의 폭발로 인한 사고일 수도 있다. However, the event is not necessarily limited thereto. For example, it may be other actions by the third party to damage the vehicle 10. Alternatively, the event may not necessarily be caused by the vehicle from the outside but may be due to the inside of the vehicle, for example, an accident due to an explosion of a lighter or the like inside the vehicle during the summer.

즉, 차량(10)의 외부 또는 내부에서 기인한 어떠한 원인에 의해 상기 차량(10)에 영향을 줄 만한 사고라면 본 명세서에서 사용하는 이벤트의 범주에 포함될 수 있다. That is, an accident that may affect the vehicle 10 by any cause caused by the outside or the inside of the vehicle 10 may be included in the category of the event used herein.

본 발명에 따른 사고 영상 기록 장치에서 사용하는 센서(500)는 진동 센서일 수 있는데, 이 진동 센서는 위에서 예로 든 이벤트가 발생한 경우 차량(10)에 전달되는 진동 및 발생 위치를 감지하여 감지된 정보를 제어부(300)로 전송한다. Sensor 500 used in the accident image recording apparatus according to the present invention may be a vibration sensor, the vibration sensor is detected by detecting the vibration and the location of the transmission to the vehicle 10 when the above-described event occurs Transmits to the control unit 300.

제어부(300)는 상기 감지된 정보에 대해 유효한 이벤트로 볼 것인지 여부를 판단한다. 예를 들어, 상기 측정된 진동의 정도를 사전 설정된 임계치와 비교하여 이보다 클 경우에 유효한 이벤트라고 간주하고 그에 따른 반응을 나타내도록 할 수 있다. The controller 300 determines whether to view the detected information as a valid event. For example, the magnitude of the measured vibration may be compared with a preset threshold to consider it as a valid event if it is greater than this and indicate a response accordingly.

제어부(300)는 상기 유효한 이벤트라고 판단한 시점부터 일정 기간 동안에 촬영한 복수의 영상을 저장하도록 제어한다. 상기 일정 기간은 차량 출고시 이미 설정되어 있을 수도 있고, 사용자에 의해 재설정될 수도 있다. 복수의 카메라에 의해 차량 주변을 촬영하여 임시 버퍼에 저장하고, 이벤트 발생이 감지되는 시점에서 일정시간 동안 촬영된 복수의 영상을 저장 하도록 함으로써 불필요한 메모리나 전력의 소모를 막을 수 있다.The controller 300 controls to store a plurality of images photographed for a predetermined period from the point of time determined as the valid event. The predetermined period may be set at the time of shipment of the vehicle or may be reset by the user. It is possible to prevent unnecessary memory or power consumption by capturing the surroundings of the vehicle by a plurality of cameras and storing them in a temporary buffer and storing a plurality of images captured for a predetermined time at the time when an event is detected.

센서(500)는 차량(10)의 여러 위치에 복수 개 설치되어 있을 수 있고, 이에 따라 제어부(300)는 센서(500)에 의해 감지된 이벤트 발생 신호로부터 이벤트 발생 위치를 확인한다. 제어부(300)는 주변 영상 생성부(200)에서 3차원 투영면에 대해 가상 시점을 이벤트 발생 위치로 이동시키도록 제어한다.A plurality of sensors 500 may be installed at various positions of the vehicle 10, and accordingly, the controller 300 checks the event occurrence position from the event occurrence signal detected by the sensor 500. The controller 300 controls the peripheral image generator 200 to move the virtual viewpoint to the event occurrence position with respect to the 3D projection plane.

주변 영상 생서부(200)는 복수의 촬영 영상을 3차원 투영면에 투영시켜 가상 시점인 이벤트 발생 위치에서 바라 본 합성 영상을 생성한다.The peripheral image generator 200 projects a plurality of captured images on a 3D projection surface to generate a composite image viewed from an event occurrence position which is a virtual viewpoint.

디스플레이부(400)는 주변 영상 생성부(200)에서 생성된 이벤트 발생 위치에서 바라본 합성 영상을 표시하며, 이러한 디스플레이부(400)는 차량(10) 내부에 구비된 각종 디스플레이 장치가 사용될 수 있다. 예를 들어 디스플레이부(400)는 네비게이션, HUD 디스플레이 장치, 인사이드 미러나 아웃 사이드 미러에 장착된 디스플레이 장치, AV 시스템 등이 사용될 수 있다.The display unit 400 displays a composite image viewed from the event occurrence position generated by the surrounding image generator 200, and the display unit 400 may use various display devices provided in the vehicle 10. For example, the display unit 400 may be a navigation device, a HUD display device, a display device mounted on an inside mirror or an outside mirror, an AV system, or the like.

지금까지 도 1, 도 2 및 도 4의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.Until now, each component of FIGS. 1, 2, and 4 may refer to software or hardware such as a field-programmable gate array (FPGA) or an application-specific integrated circuit (ASIC). However, the components are not limited to software or hardware, and may be configured to be in an addressable storage medium and configured to execute one or more processors. The functions provided in the above components may be implemented by more detailed components, or may be implemented as one component that performs a specific function by combining a plurality of components.

도 6은 본 발명의 일 실시예에 따른 사고 영상 기록 장치가 측면 접촉 이벤트 발생시 아래로 내려다 본 영상을 보여주는 개략도이고, 도 7은 도 6의 점선 영역이 확대 도시된 개략도이며, 도 8은 본 발명의 일 실시예에 따른 사고 영상 기록 장치가 측면 접촉 이벤트 발생시 이벤트 발생 시점에서 바라본 합성 영상의 예시도이다.FIG. 6 is a schematic view showing an image of an accident image recording apparatus looking down when a side contact event occurs according to an embodiment of the present invention, FIG. 7 is an enlarged schematic view of a dotted line region of FIG. 6, and FIG. FIG. 6 is an exemplary view of a composite image viewed from an event occurrence time when an accident image recording apparatus according to an embodiment occurs.

본 발명에 따른 사고 영상 기록 장치가 설치되어 있는 차량(10) 내부에는 운전자의 탑승 없이 주차 또는 정차되어 있고, 타 차량(20)이 운행 또는 주차 도중에 차량(10)의 측면과 접촉사고를 일으킨 상황이라고 가정한다. The vehicle 10 in which the accident image recording apparatus according to the present invention is installed is parked or stopped without the driver's boarding, and the other vehicle 20 causes contact with the side of the vehicle 10 while driving or parking. Assume that

이미 도 3과 해당되는 명세서 부분에서 설명했듯이, 차량(10) 주변을 형성하는 투영면(140)에 영상 획득부(100)에서 획득된 복수의 영상을 3차원 투영면에 투영시켜 합성하여 가상 시점을 사고 발생 위치로 이동시켜 바라본 주변 합셩 영상을 생성하는 경우, 주변 합성 영상을 2D 또는 3D 영상의 형태로 디스플레이할 수 있게 되며, 도 3의 화살표와 같이 시선 방향을 변경함으로써 가상 시점을 사고가 발생한 위치로 이동시켜 바라볼 수 있게 된다. 이에 따라, 영상 저장부(120)에 저장된 영상들이 도 6에서와 같이 이벤트 발생 위치(가상시점)에서 내려다 본 형식으로 차량(10)의 관리자에게 제시될 수 있다. As described above with reference to FIG. 3 and corresponding specification parts, a virtual viewpoint is thought by projecting and synthesizing a plurality of images acquired by the image obtaining unit 100 onto a three-dimensional projection surface on the projection surface 140 forming the periphery of the vehicle 10. In the case of generating the surrounding combined image viewed by moving to the occurrence position, the surrounding composite image can be displayed in the form of 2D or 3D image, and the virtual view is changed to the position where the accident occurred by changing the direction of eye as shown by the arrow of FIG. You can see it by moving it. Accordingly, the images stored in the image storage unit 120 may be presented to the manager of the vehicle 10 in a form as viewed from the event occurrence position (virtual view point) as shown in FIG. 6.

또한, 시선 방향을 변경함에 있어서 차량(10)과의 거리도 변경할 수 있어, 원하는 스케일로 보는 것도 가능하므로, 도 7과 같이 접촉사고가 발생한 부분이 확대된 합성 영상으로 제시될 수도 있다. In addition, since the distance to the vehicle 10 may also be changed in changing the direction of the eyes, it may be viewed at a desired scale, and thus, a portion in which a contact accident occurs as shown in FIG. 7 may be presented as an enlarged composite image.

더 나아가, 만약 시선 방향을 전방으로부터 사고가 일어난 차량(10)의 이벤트 발생 시점에서 측방향을 향하는 시선 방향으로 선택하고 이를 확대함으로서 도 8과 같은 영상을 사용자에게 제시해 줄 수도 있다. 차량(10)의 소유자 또는 관리자는 접촉 사고를 일으킨 차량의 번호와 같은 구체적인 정보를 얻어냄으로써 뺑소니 사고에 대한 대비가 가능해진다. Furthermore, if the gaze direction is selected as the gaze direction facing in the lateral direction at the time of occurrence of the event of the vehicle 10 in which an accident occurs from the front, the image as shown in FIG. 8 may be presented to the user. The owner or manager of the vehicle 10 obtains specific information such as the number of the vehicle that caused the contact accident, thereby preparing for a hit and miss accident.

다른 예로써 차량(10)의 관리자가 아닌 제3자가 상기 차량(10)에 대한 강제 문열림을 시도하거나 차량(10)의 파손을 시도하는 등의 경우에도 마찬가지로 당시 차량 주변 상황에 대한 구체적인 정보를 획득, 저장할 수 있다. As another example, when a third party who is not an administrator of the vehicle 10 attempts to open the door by force or attempts to damage the vehicle 10, the detailed information about the surrounding situation of the vehicle 10 is similarly provided. Can be acquired and saved.

도 9는 강제 문 열림 이벤트에 대해 본 발명의 일 실시예에 따른 사고 영상 기록 장치가 촬영한 영상을 3차원 투영면 상에 합성한 영상을 보여주는 개략도이다.FIG. 9 is a schematic diagram illustrating an image obtained by synthesizing an image captured by an accident image recording apparatus according to an embodiment of the present disclosure, on a three-dimensional projection surface for a forced door opening event.

제3자의 강제 문열림 시도를 감지한 센서(500)는 이를 제어부(300)에 전달하고, 제어부(300)가 이를 유효한 이벤트로 감지한 경우, 서로 다른 방향의 촬영 영상을 저장하며, 이에 따라 차량(10)의 여러 위치에 복수개로 설치된 카메라들(111 내지 114)에 의해 당시 차량의 주변 상황을 촬영한 영상을 저장한다. When the sensor 500 detects a forced door opening attempt by a third party, the sensor 500 transmits it to the controller 300, and when the controller 300 detects this as a valid event, the sensor 500 stores the captured images in different directions. By using a plurality of cameras (111 to 114) installed in a plurality of locations of the (10) stores an image of the surrounding situation of the vehicle at that time.

이렇게 저장된 영상들은 이미 도 3에서 설명한 바와 같이, 시선 방향의 다양한 변경 및 차량(10)과의 거리 변경이 가능하도록 합성되고, 이에 따라 제3자의 외관 등에 대한 구체적인 정보를 확보할 수 있게 된다. As described above with reference to FIG. 3, the stored images are synthesized such that various changes in the line of sight direction and distance with the vehicle 10 are possible, thereby securing specific information about the appearance of a third party.

본 발명이 일 실시예에 따른 사고 영상 기록 방법은 센서를 통해 차량 주변 혹은 상기 차량 내부의 이벤트를 감지하는 단계, 상기 차량 주변의 적어도 하나 이상의 방향 또는 상기 차량의 내부에 대한 영상을 촬영 및 저장하는 단계, 및 상기 저장된 영상을 상기 차량 주변에 설정되는 투영면에 합성하여 상기 차량의 주변 영상을 생성하는 단계를 포함할 수 있다. 이를 도 10 및 도 11을 통해 설명한다. According to an embodiment of the present invention, an accident image recording method includes detecting an event around a vehicle or an interior of the vehicle through a sensor, and recording and storing an image of at least one direction or the interior of the vehicle around the vehicle. And generating a surrounding image of the vehicle by synthesizing the stored image with a projection surface set around the vehicle. This will be described with reference to FIGS. 10 and 11.

도 10 및 도 11은 본 발명의 일 실시예에 따른 사고 영상 기록 방법을 설명하는 블록도이다.10 and 11 are block diagrams illustrating an accident image recording method according to an embodiment of the present invention.

차량이 운행 중이 아닌 상황에서도 센서는 차량 주변 혹은 차량 내부에서 발생할 수 있는 이벤트를 모니터링한다(S810). 이벤트가 발생한 경우, 예를 들어 주차 상태에서 타 차량의 접촉이 있는 경우 그 진동 및 이벤트 발생 위치를 감지한 센서는 감지된 정보를 제어부로 전송하고, 제어부는 전송 받은 측정치를 사전 설정된 임계치와 비교한다(S820). 측정된 진동이 사전 설정된 임계치보다 클 경우 등과 같이 유효한 이벤트라고 판단한 경우에(S820의 Y) 영상 획득부에 의해 서로 다른 방향의 촬영 영상 저장을 활성화시킨다(S830). Even when the vehicle is not in operation, the sensor monitors an event that may occur in or around the vehicle (S810). When an event occurs, for example, when there is a contact of another vehicle in a parking state, the sensor detecting the vibration and the event occurrence position transmits the detected information to the controller, and the controller compares the received measurement with a preset threshold. (S820). When it is determined that the measured vibration is a valid event such as when the measured vibration is greater than a preset threshold (Y in S820), the image acquisition unit activates storing of captured images in different directions (S830).

구체적으로는, 위에서 설명한 바와 같이 이벤트 발생시부터 촬영을 시작하여 상기 이벤트 발생 이후 일정 기간 동안에 촬영한 복수의 영상들을 저장하도록 할 수 있다. 하지만, 또 다른 실시예로서, 촬영은 주행 중 및 주정차 시에도 항상 수행하도록 하되, 상기 이벤트가 발생한 경우에는 상기 이벤트 발생 시점을 기준으로 전후 일정 기간 동안에 촬영된 영상만을 저장하도록 할 수도 있다. Specifically, as described above, the recording may be started from the occurrence of an event to store a plurality of images captured during a predetermined period after the occurrence of the event. However, as another embodiment, the photographing may be always performed even while driving and at a stop, and when the event occurs, only the photographed image may be stored for a predetermined period before and after the event occurs.

이렇게 저장된 영상 자료는 추후 사용자의 디스플레이 요청을 받았을 때(S910의 Y) 3차원 투영면상에 합성되어 사용자에게 제시된다. 이를 위해 차량 주변을 형성하는 투영면을 설정하고(S920), 상기 저장된 영상의 좌표를 투영면의 좌표로 변환하며(S930), 변환된 좌표를 기초로 저장된 영상을 투영면에 합성한다(S940). 합성된 영상은 사용자에게 2차원 또는 3차원 영상으로 제시된다(S950).The image data stored in this way is synthesized on a three-dimensional projection surface when presented with a user's display request (Y in S910) and presented to the user. To this end, a projection surface forming a vehicle periphery is set (S920), the coordinates of the stored image are converted into coordinates of the projection surface (S930), and the stored image is synthesized on the projection surface based on the converted coordinates (S940). The synthesized image is presented to the user as a 2D or 3D image (S950).

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 영상 획득부 111~114: 카메라
120: 영상 저장부 200: 주변 영상 생성부
210: 투영면 설정부 220: 좌표 변환부
230: 영상 합성부 300: 제어부
400: 디스플레이부 500: 센서
100: image acquiring unit 111 to 114: camera
120: image storage unit 200: peripheral image generating unit
210: projection surface setting unit 220: coordinate conversion unit
230: Image synthesizer 300: Control unit
400: display unit 500: sensor

Claims (18)

차량 주변의 적어도 하나 이상의 서로 다른 방향에 대한 복수의 영상을 촬영하는 영상 획득부;
센서를 통해 이벤트가 감지된 경우 상기 영상 획득부에 의해 촬영된 복수의 영상을 저장하도록 제어하는 제어부; 및
상기 저장된 복수의 영상을 상기 차량 주변을 형성하는 3차원 투영면에 투영시켜 상기 차량의 주변 합성 영상을 생성하는 주변 영상 생성부를 포함하되,
상기 제어부는, 상기 이벤트가 감지된 위치를 판단하여 상기 투영면의 가상 시점을 상기 이벤트가 감지된 시점으로 이동시키는 사고 영상 기록 장치.
An image acquisition unit configured to capture a plurality of images of at least one different direction around the vehicle;
A controller configured to store a plurality of images captured by the image acquisition unit when an event is detected through a sensor; And
And a peripheral image generator for projecting the plurality of stored images onto a 3D projection surface forming the periphery of the vehicle to generate a surrounding composite image of the vehicle.
The controller may determine a position where the event is detected and move the virtual viewpoint of the projection surface to a time when the event is detected.
제1항에 있어서,
상기 이벤트는 강제 문열림 또는 타 차량의 상기 차량에 대한 접촉이고, 상기 센서는 진동 센서인 사고 영상 기록 장치.
The method of claim 1,
The event is a forced door opening or contact of the other vehicle to the vehicle, the sensor is a vibration image recording device.
제2항에 있어서,
상기 센서는 상기 이벤트가 발생한 위치를 감지하는 사고 영상 기록 장치.
The method of claim 2,
The sensor is an accident image recording apparatus for detecting the location where the event occurred.
제1항에 있어서,
상기 주변 영상 생성부는,
상기 투영면을 설정하는 투영면 설정부;
상기 설정된 투영면의 좌표 정보를 저장하고, 상기 저장된 좌표 정보를 기초로 상기 서로 다른 방향으로 촬영한 복수의 영상의 좌표를 상기 투영면의 좌표로 변환하는 좌표 변환부; 및
상기 변환된 좌표를 기초로 상기 서로 다른 방향으로 촬영한 복수의 영상을 상기 설정된 투영면에 합성하는 영상 합성부를 포함하는 사고 영상 기록 장치.
The method of claim 1,
The surrounding image generator,
A projection surface setting unit for setting the projection surface;
A coordinate converter configured to store coordinate information of the set projection surface and convert coordinates of a plurality of images photographed in different directions based on the stored coordinate information into coordinates of the projection surface; And
And an image synthesizing unit for synthesizing a plurality of images photographed in different directions based on the converted coordinates to the set projection surface.
제1항에 있어서,
상기 영상 획득부는 상기 이벤트가 감지되면 촬영을 수행하고,
상기 제어부는 상기 이벤트 발생 이후 사전 설정된 일정 시간 동안에 상기 서로 다른 방향으로 촬영한 복수의 영상을 저장하도록 상기 영상 획득부를 제어하는 사고 영상 기록 장치.
The method of claim 1,
The image acquisition unit photographs when the event is detected,
And the controller controls the image acquisition unit to store a plurality of images taken in different directions for a predetermined time after the event occurs.
제1항에 있어서,
상기 영상 획득부는 상시 촬영을 수행하되,
상기 제어부는 상기 이벤트 발생 전후로 사전 설정된 일정 시간 동안에 상기 서로 다른 방향으로 촬영한 복수의 영상을 저장하도록 상기 영상 획득부를 제어하는 사고 영상 기록 장치.
The method of claim 1,
The image acquisition unit performs regular shooting,
And the controller controls the image acquisition unit to store a plurality of images photographed in different directions during a predetermined time period before and after the occurrence of the event.
삭제delete 제1항에 있어서,
상기 주변 영상 생성부는, 상기 이벤트가 감지된 시점에서 바라본 합성 영상을 생성하는 사고 영상 기록 장치.
The method of claim 1,
The surrounding image generating unit, the accident image recording apparatus for generating a composite image viewed from the time when the event is detected.
제 1항에 있어서,
상기 이벤트가 감지된 시점에서 바라본 상기 차량의 주변 합성 영상을 표시하는 디스플레이부를 더 포함하는 사고 영상 기록 장치.
The method of claim 1,
And a display unit configured to display a surrounding composite image of the vehicle as viewed from the time when the event is detected.
센서를 통해 차량의 이벤트를 감지하는 단계;
상기 차량 주변의 적어도 하나 이상의 서로 다른 방향에 대한 복수의 영상을 촬영 및 저장하는 단계; 및
상기 저장된 복수의 영상을 상기 차량 주변을 설정하는 투영면에 합성하여 상기 차량의 주변 합성 영상을 생성하는 단계를 포함하되,
상기 차량의 주변 합성 영상을 생성하는 단계는, 상기 이벤트가 감지된 위치를 판단하여 상기 투영면의 가상 시점을 상기 이벤트가 감지된 시점으로 이동시켜 상기 주변 합성 영상을 생성하는 사고 영상 기록 방법.
Detecting an event of the vehicle through a sensor;
Photographing and storing a plurality of images of at least one different direction around the vehicle; And
And synthesizing the stored plurality of images on a projection surface for setting the vehicle periphery, thereby generating a surrounding composite image of the vehicle.
The generating of the surrounding composite image of the vehicle may include determining the position at which the event is detected and moving the virtual view of the projection surface to the time at which the event is detected to generate the surrounding composite image.
제10항에 있어서,
상기 이벤트는 강제 문열림 또는 타 차량의 상기 차량에 대한 접촉이고, 상기 센서는 진동 센서인 사고 영상 기록 방법.
The method of claim 10,
The event is a forced door opening or contact of the other vehicle to the vehicle, the sensor is a vibration image recording method.
제 11항에 있어서,
상기 센서는 상기 이벤트가 발생한 위치를 감지하는 사고 영상 기록 방법.
12. The method of claim 11,
The sensor is an accident image recording method for detecting the location where the event occurred.
제10항에 있어서,
상기 주변 영상을 생성하는 단계는,
상기 차량의 주변을 형성하는 상기 투영면을 설정하는 단계;
상기 서로 다른 방향으로 촬영한 복수의 영상의 좌표를 상기 설정된 투영면의 좌표로 변환하는 단계; 및
상기 변환된 좌표를 기초로 상기 서로 다른 방향으로 촬영된 저장된 복수의 영상을 상기 설정된 투영면에 합성하는 단계를 포함하는 사고 영상 기록 방법.
The method of claim 10,
Generating the surrounding image,
Setting the projection surface forming the periphery of the vehicle;
Converting coordinates of the plurality of images photographed in different directions into coordinates of the set projection surface; And
And synthesizing a plurality of stored images captured in different directions based on the converted coordinates to the set projection surface.
제10항에 있어서,
상기 이벤트를 감지하면 상기 서로 다른 방향에 대한 복수의 영상을 촬영하는 단계; 및
상기 이벤트 발생 이후 설정된 일정 시간 동안의 상기 촬영한 복수의 영상을 저장하는 사고 영상 기록 방법.
The method of claim 10,
Capturing a plurality of images in different directions when detecting the event; And
The accident image recording method of storing the plurality of the captured images for a predetermined time set after the event occurs.
제10항에 있어서,
상기 차량 주변의 적어도 하나 이상의 서로 다른 방향에 대한 복수의 영상을 촬영하는 단계; 및
상기 이벤트를 감지하면 상기 이벤트 발생 전후로 설정된 일정 시간 동안에 상기 촬영한 영상을 저장하는 사고 영상 기록 방법.
The method of claim 10,
Photographing a plurality of images of at least one or more different directions around the vehicle; And
And detecting the event and storing the captured image for a predetermined time set before and after the event occurs.
삭제delete 제10항에 있어서,
상기 차량의 주변 합성 영상을 생성하는 단계는, 상기 이벤트가 감지된 시점에서 바라본 합성 영상을 생성하는 사고 영상 기록 방법.
The method of claim 10,
The generating of the surrounding composite image of the vehicle may include generating a composite image viewed at the time when the event is detected.
제10항에 있어서,
상기 이벤트가 감지된 시점에서 바라본 합성 영상을 디스플레이하는 단계를 더 포함하는 사고 영상 기록 방법.
The method of claim 10,
And displaying a composite image viewed from the point of time when the event is detected.
KR1020110089097A 2011-09-02 2011-09-02 Apparatus and method for recording accident image KR101284169B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110089097A KR101284169B1 (en) 2011-09-02 2011-09-02 Apparatus and method for recording accident image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110089097A KR101284169B1 (en) 2011-09-02 2011-09-02 Apparatus and method for recording accident image

Publications (2)

Publication Number Publication Date
KR20130025662A KR20130025662A (en) 2013-03-12
KR101284169B1 true KR101284169B1 (en) 2013-07-09

Family

ID=48177251

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110089097A KR101284169B1 (en) 2011-09-02 2011-09-02 Apparatus and method for recording accident image

Country Status (1)

Country Link
KR (1) KR101284169B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6672075B2 (en) * 2016-05-25 2020-03-25 キヤノン株式会社 CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
JP7168367B2 (en) * 2018-07-25 2022-11-09 株式会社デンソーテン accident reporting device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080080476A (en) * 2008-08-11 2008-09-04 주식회사 타디엔테크 Synthesizing signal type video recording apparatus for a car
KR100929689B1 (en) * 2008-09-08 2009-12-03 재단법인대구경북과학기술원 Traffic accident record apparatus using stereo image information and controlling method for the same
KR20110087736A (en) * 2010-01-27 2011-08-03 고만석 Equipment method for recording close up picture of a body in motion in car black box system thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080080476A (en) * 2008-08-11 2008-09-04 주식회사 타디엔테크 Synthesizing signal type video recording apparatus for a car
KR100929689B1 (en) * 2008-09-08 2009-12-03 재단법인대구경북과학기술원 Traffic accident record apparatus using stereo image information and controlling method for the same
KR20110087736A (en) * 2010-01-27 2011-08-03 고만석 Equipment method for recording close up picture of a body in motion in car black box system thereof

Also Published As

Publication number Publication date
KR20130025662A (en) 2013-03-12

Similar Documents

Publication Publication Date Title
EP2163428B1 (en) Intelligent driving assistant systems
JP2022111151A (en) Imaging apparatus and control method of imaging apparatus
US10857974B2 (en) Image display device, image display system, image display method and program
US20160288713A1 (en) System and process for viewing in blind spots
JP5934976B2 (en) Drive recorder and program
JP7052632B2 (en) Peripheral display device for vehicles
KR20130025005A (en) Apparatus and method for compensating around image of vehicle
JP2010268343A5 (en)
JP2019212110A (en) Recording/reproducing apparatus, recording/reproducing method, and program
JP3834967B2 (en) Blind spot range display device
US20230191994A1 (en) Image processing apparatus, image processing method, and image processing system
KR101278654B1 (en) Apparatus and method for displaying arround image of vehicle
KR101580567B1 (en) Apparatus of recording event based image data
JP2011210087A (en) Vehicle circumference monitoring device and vehicle circumference monitoring method
KR102304391B1 (en) vehicle and control method thereof
KR101284169B1 (en) Apparatus and method for recording accident image
US20190228241A1 (en) Method of operating an in-vehicle camera
JP2016157455A (en) Drive recorder and program
JP2005269010A (en) Image creating device, program and method
KR20130071842A (en) Apparatus and method for providing environment information of vehicle
KR101295618B1 (en) Apparatus and method for displaying blind spot
KR101726835B1 (en) The rear image display apparatus of vehicle
KR20130053605A (en) Apparatus and method for displaying around view of vehicle
KR102300652B1 (en) vehicle and control method thereof
JP6024639B2 (en) Gaze position detection device and gaze position detection method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160627

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170626

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 7