KR102200218B1 - Camera device, system and method responsive to gaze direction of driver - Google Patents

Camera device, system and method responsive to gaze direction of driver Download PDF

Info

Publication number
KR102200218B1
KR102200218B1 KR1020140123633A KR20140123633A KR102200218B1 KR 102200218 B1 KR102200218 B1 KR 102200218B1 KR 1020140123633 A KR1020140123633 A KR 1020140123633A KR 20140123633 A KR20140123633 A KR 20140123633A KR 102200218 B1 KR102200218 B1 KR 102200218B1
Authority
KR
South Korea
Prior art keywords
driver
imaging
imaging device
motion
head
Prior art date
Application number
KR1020140123633A
Other languages
Korean (ko)
Other versions
KR20160032905A (en
Inventor
조영빈
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020140123633A priority Critical patent/KR102200218B1/en
Publication of KR20160032905A publication Critical patent/KR20160032905A/en
Application granted granted Critical
Publication of KR102200218B1 publication Critical patent/KR102200218B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion

Abstract

운전자의 시선방향에 반응하는 촬상장치는 운전자가 착용한 웨어러블 디바이스로부터 움직임 정보를 수신하는 수신부, 수신한 움직임 정보에 기초하여 운전자의 움직임을 해석하는 움직임 해석부 및 해석된 움직임에 기초하여 촬상장치의 촬상영역을 변화시키는 제어부를 포함하되, 움직임 해석부가 움직임이 사고에 해당한다고 해석한 경우, 제어부는 촬상영역을 회전시키면서 촬상장치가 주변 상황 및 운전자를 촬영하도록 제어하도록 구성된다. An imaging device that responds to the driver's gaze direction includes a receiver that receives motion information from a wearable device worn by the driver, a motion analysis section that analyzes the driver's motion based on the received motion information, and the image pickup device based on the analyzed motion. It includes a control unit for changing the imaging area, and when the motion analysis unit interprets that the movement corresponds to an accident, the control unit is configured to control the imaging device to take pictures of the surrounding situation and the driver while rotating the imaging area.

Description

운전자의 시선방향에 반응하는 촬상장치, 촬상시스템 및 촬상방법{CAMERA DEVICE, SYSTEM AND METHOD RESPONSIVE TO GAZE DIRECTION OF DRIVER}An imaging device, an imaging system, and an imaging method that responds to the driver's gaze direction {CAMERA DEVICE, SYSTEM AND METHOD RESPONSIVE TO GAZE DIRECTION OF DRIVER}

본 발명은 운전자의 시선방향에 반응하는 촬상장치, 촬상시스템 및 촬상방법 에 관한 것이다. The present invention relates to an image pickup device, an image pickup system, and an image pickup method that respond to the driver's line of sight.

차량용 블랙박스는 자동차용 영상 사고기록장치(EDR, Event Data Recorder)라 불리우며, 교통 사고 발생 시에 시시비비를 가리는데 주로 사용되고 있다. 차량용 블랙박스는 주로 카메라 형식의 제품으로, 차량 내부의 룸미러 또는 대시 보드 주위에 주로 설치되어 차량 전방의 영상을 촬영하고, 이를 동영상으로 기록한다. The vehicle black box is called an automotive video accident recorder (EDR, Event Data Recorder), and is mainly used to cover the city and other ratios in the event of a traffic accident. Vehicle black boxes are mainly camera-type products, and are mainly installed around a room mirror or dashboard inside a vehicle to take an image of the front of the vehicle and record it as a video.

이러한 차량용 블랙박스와 관련하여, 선행기술인 한국공개특허 제 2012-0026202호에는 차량용 영상 저장 장치에 대해 개시하고 있다. In relation to such a vehicle black box, Korean Patent Publication No. 2012-0026202, which is a prior art, discloses an image storage device for a vehicle.

일반적으로 차량용 블랙박스는 고정형 카메라의 형태로 차량에 설치된다. 그러나 카메라가 고정이 되었기 때문에 카메라의 촬영영역 이외의 영역에서 사고가 발생한 경우에는 사고 현장의 상황과 관련된 영상을 획득할 수 없다. 또한, 이러한 사각지대를 줄이고자 측방, 후방 카메라를 차량에 추가로 설치할 수도 있지만, 비용이 증가한다는 단점을 가지고 있다. 따라서, 적은 비용으로 사고 현장의 상황을 유동적으로 담을 수 있는 차량용 블랙박스가 요구되고 있다. In general, a vehicle black box is installed in a vehicle in the form of a fixed camera. However, since the camera is fixed, if an accident occurs in an area other than the shooting area of the camera, images related to the situation at the accident site cannot be obtained. In addition, in order to reduce such blind spots, side and rear cameras may be additionally installed on the vehicle, but it has a disadvantage of increasing cost. Therefore, there is a demand for a vehicle black box that can flexibly contain the situation of the accident site at low cost.

운전자의 시선에 따른 영상을 실시간으로 획득할 수 있으며, 운전자의 시선방향에 반응하는 촬상장치, 촬상 시스템 및 촬상방법을 제공하고자 한다. 또한, 사고가 발생한 경우, 운전자는 착용한 웨어러블 디바이스를 통해 차량의 측방, 후방, 전방의 사고 상황을 실시간으로 촬상할 수 있는 운전자의 시선방향에 반응하는 촬상장치, 촬상 시스템 및 촬상방법을 제공하고자 한다. 또한, 저장된 영상을 실시간 스트리밍을 통해 스마트폰 앱으로 제공할 수 있는 운전자의 시선방향에 반응하는 촬상장치, 촬상 시스템 및 촬상방법을 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An image pickup device, an image pickup system, and an image pickup method that can acquire an image according to the driver's gaze in real time and respond to the driver's gaze direction are provided. In addition, in the event of an accident, the driver intends to provide an imaging device, an imaging system, and an imaging method that responds to the driver's gaze direction that can capture the accident situation in the side, rear, and front of the vehicle in real time through the wearable device. do. In addition, it is intended to provide an imaging device, an imaging system, and an imaging method that respond to the driver's gaze direction that can provide a stored image to a smartphone app through real-time streaming. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는 운전자가 착용한 웨어러블 디바이스로부터 움직임 정보를 수신하는 수신부, 수신한 움직임 정보에 기초하여 운전자의 움직임을 해석하는 움직임 해석부 및 해석된 움직임에 기초하여 촬상장치의 촬상영역을 변화시키는 제어부를 포함하되, 움직임 해석부가 움직임이 사고에 해당한다고 해석한 경우, 제어부는 촬상영역을 회전시키면서 촬상장치가 주변 상황 및 운전자를 촬영하도록 제어하도록 구성되는 촬상장치를 제공할 수 있다. As a technical means for achieving the above-described technical problem, an embodiment of the present invention provides a receiving unit for receiving motion information from a wearable device worn by a driver, a motion analyzing unit for analyzing the driver's motion based on the received motion information, and Includes a control unit that changes the imaging area of the imaging device based on the analyzed motion, but when the motion analysis unit interprets that the motion corresponds to an accident, the controller controls the imaging device to take pictures of the surrounding situation and the driver while rotating the imaging area. It is possible to provide an imaging device configured to be.

또한, 본 발명의 다른 실시예는, 운전자의 신체에 착용되어 운전자에 대한 움직임 정보를 생성하는 웨어러블 디바이스 및 웨어러블 디바이스로부터 움직임 정보를 수신하여 해석하고, 해석된 움직임에 기초하여 촬상영역을 변화시키는 촬상장치를 포함하되, 상기 촬상장치는 팬(pan) 및 틸트(tilt) 동작이 가능하도록 구성되는 거치대를 포함하고, 촬상장치는 움직임이 사고에 해당한다고 해석한 경우, 촬상영역을 회전시키면서 촬상장치가 주변 상황 및 운전자를 촬영하도록 제어하도록 구성되는 촬상 시스템을 제공할 수 있다. In addition, another embodiment of the present invention is a wearable device that is worn on the driver's body to generate motion information for the driver, and an image capturing that receives and analyzes motion information from the wearable device, and changes the imaging area based on the analyzed motion. Including a device, wherein the imaging device includes a cradle configured to enable pan and tilt operations, and when the imaging device interprets that movement corresponds to an accident, the imaging device rotates the imaging area while It is possible to provide an imaging system configured to control the surrounding situation and the driver to photograph.

또한, 본 발명의 또 다른 실시예는, 운전자가 착용한 웨어러블 디바이스로부터 움직임 정보를 수신하는 단계, 수신한 움직임 정보에 기초하여 운전자의 움직임을 해석하는 단계, 해석된 움직임에 기초하여 촬상장치의 촬상영역을 변화시키는 단계를 포함하되, 움직임이 사고에 해당한다고 해석한 경우, 촬상영역을 회전시키면서 촬상장치가 주변 상황 및 운전자를 촬영하도록 제어하도록 구성되는 촬상방법을 제공할 수 있다. In addition, another embodiment of the present invention includes receiving motion information from a wearable device worn by the driver, analyzing the driver's motion based on the received motion information, and capturing an imaging device based on the analyzed motion. Including the step of changing an area, and when it is interpreted that the movement corresponds to an accident, an imaging method configured to control the imaging device to take pictures of a surrounding situation and a driver while rotating the imaging area may be provided.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 운전자의 시선에 따른 영상을 실시간으로 획득할 수 있으며, 운전자의 시선방향에 반응하는 촬상장치, 촬상 시스템 및 촬상방법을 제공할 수 있다. 또한, 사고가 발생한 경우, 운전자는 착용한 웨어러블 디바이스를 통해 차량의 측방, 후방, 전방의 사고 상황을 실시간으로 촬상할 수 있는 운전자의 시선방향에 반응하는 촬상장치, 촬상 시스템 및 촬상방법을 제공할 수 있다. 또한, 저장된 영상을 실시간 스트리밍을 통해 스마트폰 앱으로 제공할 수 있는 운전자의 시선방향에 반응하는 촬상장치, 촬상 시스템 및 촬상방법을 제공할 수 있다.According to any one of the above-described problem solving means of the present invention, it is possible to obtain an image according to the driver's gaze in real time, and to provide an imaging device, an imaging system, and an imaging method that respond to the driver's gaze direction. In addition, in the event of an accident, the driver can provide an imaging device, an imaging system, and an imaging method that responds to the driver's gaze direction that can capture the accident situation in the side, rear, and front of the vehicle through the wearable device in real time. I can. In addition, it is possible to provide an imaging device, an imaging system, and an imaging method that responds to the driver's gaze direction that can provide a stored image to a smartphone app through real-time streaming.

도 1은 본 발명의 일 실시예에 따른 운전자의 시선방향에 반응하는 촬상 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 운전자의 시선방향에 반응하는 촬상장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 촬상장치에서 촬상영역을 변화시키는 과정을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 운전자의 시선방향에 반응하는 촬상방법을 나타낸 흐름도이다.
1 is a block diagram of an imaging system that responds to a driver's gaze direction according to an embodiment of the present invention.
2 is a configuration diagram of an imaging device that responds to a driver's gaze direction according to an embodiment of the present invention.
3 is a flowchart illustrating a process of changing an imaging area in the imaging device according to an embodiment of the present invention.
4 is a flowchart illustrating an imaging method that responds to a driver's gaze direction according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included, and one or more other features, not excluding other components, unless specifically stated to the contrary. It is to be understood that it does not preclude the presence or addition of any number, step, action, component, part, or combination thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, or two or more units may be realized using one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In the present specification, some of the operations or functions described as being performed by the terminal or device may be performed instead by a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 운전자의 시선방향에 반응하는 촬상 시스템의 구성도이다. 도 1을 참조하면, 촬상 시스템(1)은 촬상장치(100), 웨어러블 디바이스(110), 모바일 디바이스(120) 및 클라우드 서버(130)를 포함하고, 촬상장치(100)는 카메라(102) 및 거치대(104)를 포함할 수 있다. 도 1에 도시된 카메라(102) 및 거치대(104)를 포함하는 촬상장치(100), 웨어러블 디바이스(110), 모바일 디바이스(120) 및 클라우드 서버(130)는 촬상 시스템(1)에 의하여 제어될 수 있는 구성요소들을 예시적으로 도시한 것이다. 1 is a block diagram of an imaging system that responds to a driver's gaze direction according to an embodiment of the present invention. Referring to FIG. 1, the imaging system 1 includes an imaging device 100, a wearable device 110, a mobile device 120, and a cloud server 130, and the imaging device 100 includes a camera 102 and a It may include a cradle 104. The imaging apparatus 100, the wearable device 110, the mobile device 120, and the cloud server 130 including the camera 102 and the cradle 104 shown in FIG. 1 are to be controlled by the imaging system 1. It shows the possible components by way of example.

도 1의 촬상 시스템(1)의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 웨어러블 디바이스(110)는 네트워크를 통하여 카메라(102) 또는 거치대(104)와 연결될 수 있다. Each component of the imaging system 1 of FIG. 1 is generally connected through a network. For example, as shown in FIG. 1, the wearable device 110 may be connected to the camera 102 or the cradle 104 through a network.

네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예는, Wi-Fi, 블루투스(Bluetooth), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 3G, 4G, LTE 등이 포함되나 이에 한정되지는 않는다. A network refers to a connection structure that enables information exchange between nodes such as terminals and servers, and examples of such networks include Wi-Fi, Bluetooth, Internet, and Local Area (LAN). Network), Wireless Local Area Network (LAN), Wide Area Network (WAN), Personal Area Network (PAN), 3G, 4G, LTE, etc., but are not limited thereto.

촬상장치(100)는 카메라(102)와 팬(pan) 및 틸트(tilt) 동작이 가능하도록 구성되는 거치대(104)를 포함할 수 있다. 거치대(120)는 팬 동작이 가능한 제 1 액츄에이터 및 틸트 동작이 가능한 제 2 액츄에이터를 포함할 수 있다. 제 1 액츄에이터는 카메라 렌즈에 사용되는 링형 초음파모터를 포함하고, 제 2 액츄에이터는 진동형 초음파 모터 또는 일반 초소형 진동 모터를 포함할 수 있다. The imaging device 100 may include a camera 102 and a cradle 104 configured to enable pan and tilt operations. The cradle 120 may include a first actuator capable of panning and a second actuator capable of tilting. The first actuator may include a ring-type ultrasonic motor used for a camera lens, and the second actuator may include a vibration-type ultrasonic motor or a general micro-vibration motor.

카메라(102)는 운전자의 신체에 착용되는 웨어러블 디바이스(110), 예를 들어, 블루투스(Bluetooth) 헤드폰의 결합부와 결합되어 운전자의 시선방향에 따라 주행 상황을 촬영하고, 촬영된 영상을 저장할 수 있다. 또한, 카메라(102)는 차량의 대시보드에 장착된 거치대(104)와 결합되어 운전자의 머리에 착용된 웨어러블 디바이스(110)와의 통신을 통해 운전자의 머리 움직임에 기초하여 거치대(120)의 회전 방향 및 회전 각도를 제어할 수 있다. The camera 102 may be combined with a wearable device 110 worn on the driver's body, for example, a coupling part of a Bluetooth headphone to photograph a driving situation according to the driver's gaze direction and store the captured image. have. In addition, the camera 102 is coupled with the cradle 104 mounted on the dashboard of the vehicle and communicates with the wearable device 110 worn on the driver's head, based on the movement of the driver's head, the rotation direction of the cradle 120 And it is possible to control the rotation angle.

촬상장치(100)는 Wi-Fi 또는 블루투스 통신을 통해 촬영한 영상을 모바일 디바이스(120)로 전송할 수 있다. 또는, 촬상장치(100)는 다양한 네트워크 통신을 이용하여 촬영한 영상을 직접 클라우드 서버(130)로 실시간으로 전송할 수 있다. The imaging device 100 may transmit an image captured through Wi-Fi or Bluetooth communication to the mobile device 120. Alternatively, the imaging device 100 may directly transmit an image captured by using various network communications to the cloud server 130 in real time.

일 실시예에서, 카메라(102)가 차량의 대시보드에 장착된 거치대(104)와 결합된 경우, 촬상장치(100)는 웨어러블 디바이스(110)로부터 운전자의 머리 움직임 정보를 수신하여 해석하고, 거치대(104)의 팬 및 틸트의 동작의 제어를 통해 거치대(104)의 회전 방향 및 회전 각도를 해석된 운전자의 머리 움직임에 따르도록 카메라(102)의 촬상영역을 변화시킬 수 있다. In one embodiment, when the camera 102 is combined with the cradle 104 mounted on the dashboard of the vehicle, the imaging device 100 receives and interprets the driver's head movement information from the wearable device 110, and Through the control of the pan and tilt operations of 104, the imaging area of the camera 102 may be changed so that the rotation direction and the rotation angle of the cradle 104 correspond to the analyzed driver's head movement.

예를 들어, 촬상장치(100)가 운전자의 움직임이 사고에 해당한다고 해석한 경우, 촬상장치(100)는 카메라(102)의 촬상영역을 360°회전시키면서 주변 상황, 운전자 및 조수석의 상태를 촬영할 수 있도록 거치대(104)의 팬(pan) 및 틸트(tilt)를 제어할 수 있다. For example, when the imaging device 100 interprets that the driver's movement corresponds to an accident, the imaging device 100 rotates the imaging area of the camera 102 by 360° to capture the surrounding situation, the driver and the passenger seat status. It is possible to control the pan and tilt of the cradle 104 so that it can be performed.

다른 예를 들어, 촬상장치(100)가 사고가 미리 설정된 등급 이상인 것으로 해석한 경우, 촬영된 영상과 위치 좌표를 미리 정해진 연락처로 전송하도록 구성될 수 있다. 이 때, 미리 설정된 사고 등급은 1단계: 안전, 2단계: 주의, 3단계: 경계, 4단계: 위험, 5단계: 매우 위험을 포함하며, 미리 설정된 사고 등급이 4단계 이상인 경우, 촬영된 영상과 위치 좌표를 가족, 보험사, 112 또는 119로 전송하도록 구성될 수 있다. For another example, when the imaging device 100 interprets that the accident is higher than or equal to a preset grade, it may be configured to transmit the captured image and location coordinates to a predetermined contact. At this time, the pre-set accident level includes Level 1: Safety, Level 2: Caution, Level 3: Vigilance, Level 4: Danger, Level 5: Very Danger, and if the pre-set accident level is 4 or higher, the captured image And location coordinates can be configured to transmit to the family, insurance company, 112 or 119.

또 다른 예를 들어, 웨어러블 디바이스(110)에 내장된 가속도 센서 및 자이로 센서가 상하로 움직이는 폭이 클 경우, 촬상장치(100)는 운전자의 움직임이 졸음에 해당한다고 해석하고, 웨어러블 디바이스(110)로 경고 메시지를 출력하도록 구성될 수 있다. 이 때, 경고 메시지는 졸음방지 음성 안내, 졸음방지 음악, 졸음방지 진동 등을 포함할 수 있다. For another example, when the acceleration sensor and the gyro sensor built in the wearable device 110 move vertically, the imaging device 100 interprets that the driver's movement corresponds to drowsiness, and the wearable device 110 Can be configured to output a warning message. In this case, the warning message may include a sleep prevention voice guidance, sleep prevention music, and sleep prevention vibration.

또 다른 예를 들어, 촬상장치(100)가 운전자의 머리가 일정 각도 이내에서 회전한 것으로 해석한 경우, 운전자의 머리 움직임이 거이 없는 것으로 판단하여 촬상영역이 정면을 향하도록 고정시키도록 제어될 수 있다. 또 다른 예를 들어, 촬상장치(100)가 운전자의 머리가 일정 각도 이상 회전한 것으로 해석한 경우, 촬상장치(100)는 거치대(104)의 팬 및 틸트의 제어를 통해 촬상영역을 운전자의 머리 회전 방향 및 각도에 따라 회전시키도록 할 수 있다. 또 다른 예를 들어, 촬상장치(100)가 운전자의 머리가 일정 각도 이상 회전한 후 그대로 유지한 것으로 해석한 경우, 촬상장치(100)는 거치대(104)의 팬 및 틸트의 제어를 통해 촬상영역을 운전자의 머리 회전에 따라 회전시킨 후 추가적으로 더 회전시키도록 할 수 있다. For another example, when the imaging device 100 interprets that the driver's head has rotated within a certain angle, it is determined that the driver's head movement is seldom, and the imaging area can be controlled to be fixed to face the front. have. For another example, when the imaging device 100 interprets that the driver's head has rotated by a certain angle or more, the imaging device 100 may control the pan and tilt of the cradle 104 to change the imaging area to the driver's head. It can be rotated according to the direction and angle of rotation. As another example, when the imaging device 100 interprets that the driver's head rotates by a certain angle or more and is maintained as it is, the imaging device 100 controls the image capture area through pan and tilt control of the cradle 104. After rotating according to the rotation of the driver's head, it can be rotated further.

웨어러블 디바이스(110)는 운전자의 신체에 착용되어 운전자에 대한 움직임 정보를 생성할 수 있다. 웨어러블 디바이스(110)는 생성한 움직임 정보를 Wi-Fi 또는 블루투스 통신을 통해 촬상장치(100)로 전송할 수 있다. 이 때, 웨어러블 디바이스(110)는 배터리를 내장하고 있는 넥백(neck back)과 전원 공급 단자와 접촉될 수 있는 이어셋을 포함할 수 있다. 또한, 웨어러블 디바이스(110)는 운전자의 머리 움직임을 감지할 수 있도록 가속도 센서 및 자이로 센서를 포함할 수 있다. The wearable device 110 may be worn on the driver's body to generate motion information about the driver. The wearable device 110 may transmit the generated motion information to the imaging apparatus 100 through Wi-Fi or Bluetooth communication. In this case, the wearable device 110 may include a neck back in which a battery is embedded and an ear set that may be in contact with a power supply terminal. In addition, the wearable device 110 may include an acceleration sensor and a gyro sensor to detect movement of the driver's head.

모바일 디바이스(120)는 촬상장치(100) 또는 웨어러블 디바이스(110)와 연결되어 촬상장치(100) 또는 웨어러블 디바이스(110)로부터 촬영한 영상을 수신할 수 있다. 이 때, 모바일 디바이스(120)는 수신한 영상을 메모리에 저장할 수 있다. 또는, 모바일 디바이스(120)는 모바일 디바이스(120) 내에 설치된 애플리케이션을 통해 수신한 영상을 클라우드 서버(130)로 전송할 수도 있다. 이 때, 모바일 디바이스(120)는 영상이 촬상된 위치에 대한 GPS 정보를 클라우드 서버(130)로 함께 전송할 수 있다. The mobile device 120 may be connected to the imaging apparatus 100 or the wearable device 110 to receive an image captured from the imaging apparatus 100 or the wearable device 110. In this case, the mobile device 120 may store the received image in a memory. Alternatively, the mobile device 120 may transmit an image received through an application installed in the mobile device 120 to the cloud server 130. In this case, the mobile device 120 may transmit GPS information about the location at which the image was captured to the cloud server 130 together.

클라우드 서버(130)는 촬상장치(100) 또는 웨어러블 디바이스(110)에서 촬영한 영상을 모바일 디바이스(120)로부터 수신하여 저장할 수 있다. 이 때, 클라우드 서버(130)는 수신한 영상에 대해 촬상된 위치(예를 들어, 모바일 디바이스(120)의 GPS 기록)를 모바일 디바이스(120)의 GPS를 통해 기록할 수 있으며, 이를 메타데이터와 함께 저장할 수 있다. 또는, 클라우드 서버(130)는 촬상장치(100) 또는 웨어러블 디바이스(110)로부터 촬영한 영상을 직접 수신하여 저장할 수 있다. 운전자들은 인증 단계를 거친 후, 클라우드 서버(130)에 접속하여 전송된 영상을 볼 수 있게 된다. The cloud server 130 may receive and store an image captured by the imaging apparatus 100 or the wearable device 110 from the mobile device 120. At this time, the cloud server 130 may record the location (eg, GPS record of the mobile device 120) captured of the received image through the GPS of the mobile device 120, and this Can be stored together. Alternatively, the cloud server 130 may directly receive and store an image captured from the imaging apparatus 100 or the wearable device 110. After passing through the authentication step, drivers can access the cloud server 130 to view the transmitted image.

도 2는 본 발명의 일 실시예에 따른 운전자의 시선방향에 반응하는 촬상장치의 구성도이다. 도 2를 참조하면, 촬상장치(100)는 수신부(210), 움직임 해석부(220) 및 제어부(230)를 포함할 수 있다. 이 때, 촬상장치(100)는 카메라(102)와 팬(pan) 및 틸트(tilt) 동작이 가능하도록 구성되는 거치대(104)를 포함할 수 있다. 2 is a configuration diagram of an imaging device that responds to a driver's gaze direction according to an embodiment of the present invention. Referring to FIG. 2, the imaging apparatus 100 may include a receiving unit 210, a motion analysis unit 220, and a control unit 230. In this case, the imaging apparatus 100 may include a camera 102 and a cradle 104 configured to enable pan and tilt operations.

수신부(210)는 운전자가 착용한 웨어러블 디바이스(110)로부터 움직임 정보를 수신할 수 있다. 이 때, 수신부(210)는 예를 들어, 블루투스 헤드셋과 같은 웨어러블 디바이스(110)와 Wi-Fi 또는 블루투스(Bluetooth) 통신을 통해 움직임 정보를 수신할 수 있다. The receiver 210 may receive motion information from the wearable device 110 worn by the driver. In this case, the receiver 210 may receive motion information through Wi-Fi or Bluetooth communication with, for example, a wearable device 110 such as a Bluetooth headset.

움직임 해석부(220)는 수신한 움직임 정보에 기초하여 운전자의 움직임을 해석할 수 있다. 예를 들어, 운전자 차량과 다른 차량과 사고가 발생하여 차량에 충격이 가해진 경우, 운전자는 목관절에 심한 움직임이 발생할 수 있다. 이 때, 운전자의 목관절이 심하게 움직이게 되면, 운전자가 착용한 웨어러블 디바이스(110)의 가속도 센서 및 자이로 센서 값에 큰 변화가 생기게 되고, 이러한 운전자의 움직임 정보에 기초하여 운전자의 움직임을 해석할 수 있으며, 움직임 해석부(220)는 수신한 움직임 정보가 사고에 해당한다고 해석할 수 있다. 또한, 움직임 해석부(220)에서 수신한 움직임 정보가 사고에 해당한다고 해석한 경우, 움직임 해석부(220)는 사고의 충격량에 기초하여 사고가 미리 설정된 등급 이상인지를 해석할 수 있다. 이 때, 사고 등급은 1단계: 안전, 2단계: 주의, 3단계: 경계, 4단계: 위험, 5단계: 매우위험을 포함할 수 있으며, 미리 설정된 등급 이상은 충격량 레벨 4단계인 '위험'과 5단계인 '매우 위험'일 수 있다. The motion analysis unit 220 may analyze the driver's motion based on the received motion information. For example, when an accident occurs with a vehicle other than the driver's vehicle and an impact is applied to the vehicle, the driver may cause severe movement in the neck joint. At this time, when the driver's neck joint moves severely, a large change occurs in the acceleration sensor and the gyro sensor value of the wearable device 110 worn by the driver, and the driver's movement can be analyzed based on the driver's movement information. In addition, the motion analysis unit 220 may interpret that the received motion information corresponds to an accident. In addition, when it is interpreted that the motion information received by the motion analysis unit 220 corresponds to an accident, the motion analysis unit 220 may analyze whether the accident is higher than a preset level based on the amount of impact of the accident. At this time, the accident level may include Level 1: Safety, Level 2: Caution, Level 3: Vigilance, Level 4: Danger, Level 5: Extremely Danger, and above the preset level is'Dangerous', which is level 4 of the impulse level. It can be a'very risky' step 5 and.

다른 예를 들어, 운전자가 졸음 운전을 하는 경우, 운전자가 착용한 웨어러블 디바이스(110)는 상하로 움직이게 될 수 있다. 이 때, 웨어러블 디바이스(110)의 움직이는 폭이 크거나 웨어러블 디바이스(110)가 특정 각도 아래로 계속 내려가는 경우, 움직임 해석부(220)는 수신한 움직임 정보가 졸음에 해당한다고 해석할 수 있다. For another example, when the driver is drowsy driving, the wearable device 110 worn by the driver may move up and down. In this case, when the moving width of the wearable device 110 is large or the wearable device 110 continues to descend below a specific angle, the motion analysis unit 220 may interpret that the received motion information corresponds to drowsiness.

또 다른 예를 들어, 운전자의 차량이 차량의 이동량이 많은 교차로를 진입하는 경우, 사고의 발생 확률이 높아지므로, 움직임 해석부(220)는 운전자가 착용한 웨어러블 디바이스(110)의 회전 방향 및 회전 각도에 기초하여 움직임 정보를 해석할 수 있다. 움직임 해석부(220)는 운전자가 착용한 웨어러블 디바이스(110)의 움직인 각도에 기초하여 운전자의 머리가 일정 각도 이내에서 회전하였는지 또는 운전자의 머리 움직임이 일정 각도 이상을 회전하였는지의 파악을 통해 회전 각도를 알 수 있게 된다. 이 때, 운전자의 머리 움직임이 일정 각도 이내에서 회전한 경우, 움직임 해석부(220)는 운전자의 움직임이 없는 것으로 간주할 수 있다. 또한, 움직임 해석부(220)는 운전자의 머리가 일정 각도 이상 회전한 후 그대로 유지하였는지를 해석할 수도 있다. For another example, when the driver's vehicle enters an intersection with a large amount of movement of the vehicle, the probability of occurrence of an accident is increased, and thus the motion analysis unit 220 rotates the direction and rotation of the wearable device 110 worn by the driver. Motion information can be analyzed based on the angle. The motion analysis unit 220 rotates by determining whether the driver's head has rotated within a certain angle or whether the driver's head movement has rotated more than a certain angle based on the moving angle of the wearable device 110 worn by the driver. You can know the angle. In this case, when the driver's head movement rotates within a certain angle, the motion analysis unit 220 may consider that there is no movement of the driver. In addition, the motion analysis unit 220 may analyze whether the driver's head has been rotated by a certain angle or more and maintained as it is.

제어부(230)는 해석된 움직임에 기초하여 촬상장치(100)의 촬상영역을 변화시킬 수 있다. 제어부(230)는 거치대(104)의 팬(pan) 및 틸트(tilt)의 동작 제어를 통해 촬상영역을 변화시킬 수 있다. 이 때, 거치대(104)는 팬 동작이 가능한 제 1 액츄에이터 및 틸트 동작이 가능한 제 2 액츄에이터를 포함할 수 있으며, 제어부(230)는 거치대(104)의 제 1 액츄에이터 및 제 2 액츄에이터의 동작을 제어할 수 있다. The controller 230 may change the imaging area of the imaging apparatus 100 based on the analyzed motion. The controller 230 may change the imaging area by controlling pan and tilt operations of the cradle 104. At this time, the cradle 104 may include a first actuator capable of panning and a second actuator capable of tilting, and the control unit 230 controls the operation of the first and second actuators of the cradle 104 can do.

예를 들어, 움직임 해석부(220)에서 운전자가의 움직임이 사고에 해당한다고 해석한 경우, 제어부(230)는 촬상영역을 360°로 회전시키면서 촬상장치(100)가 주변 상황 및 운전자를 촬영하도록 제어하도록 구성될 수 있다. 이 때, 제어부(230)는 촬상장치(100)가 조수석의 상태도 함께 촬영하도록 제어하도록 구성될 수 있다. For example, when the motion analysis unit 220 interprets that the driver's movement corresponds to an accident, the controller 230 rotates the imaging area by 360° so that the imaging device 100 photographs the surrounding situation and the driver. It can be configured to control. In this case, the control unit 230 may be configured to control the imaging device 100 to also photograph the state of the passenger seat.

다른 예를 들어, 움직임 해석부(220)에서 사고가 미리 설정된 등급 이상인 것으로 해석한 경우, 제어부(230)는 촬영된 영상과 GPS를 통해 획득한 위치 좌표를 미리 정해진 연락처로 전송하도록 구성될 수 있다. 이 때, 사고 등급은 1단계: 안전, 2단계: 주의, 3단계: 경계, 4단계: 위험, 5단계: 매우위험을 포함할 수 있다. 제어부(230)는 사고 등급이 4단계 이상인 경우, 촬영된 영상과 위치 좌표를 가족, 보험사, 112 및 119로 자동으로 전송할 수 있다. 또한, 제어부(230)는 촬영된 영상과 위치 좌표를 클라우드 서버로 실시간으로 업로드할 수도 있다. For another example, when the motion analysis unit 220 interprets the accident as having a predetermined level or higher, the control unit 230 may be configured to transmit the captured image and the location coordinates acquired through GPS to a predetermined contact. . In this case, the accident level may include Level 1: Safety, Level 2: Caution, Level 3: Alert, Level 4: Danger, and Level 5: Very Danger. The controller 230 may automatically transmit the captured image and location coordinates to the family, insurance companies, 112 and 119 when the accident level is 4 or higher. Also, the controller 230 may upload the captured image and location coordinates to the cloud server in real time.

또 다른 예를 들어, 움직임 해석부(220)에서 운전자의 움직임이 졸음에 해당한다고 해석한 경우, 제어부(230)는 운전자가 착용하고 있는 웨어러블 디바이스(110)로 경고 메시지를 출력하도록 구성될 수 있다. 이 때, 경고 메시지는 졸음방지 음성 안내, 졸음방지 음악, 졸음방지 진동 등을 포함할 수 있다. For another example, when the motion analysis unit 220 interprets that the driver's movement corresponds to drowsiness, the controller 230 may be configured to output a warning message to the wearable device 110 worn by the driver. . In this case, the warning message may include a sleep prevention voice guidance, sleep prevention music, and sleep prevention vibration.

또 다른 예를 들어, 움직임 해석부(220)에서 운전자의 머리가 일정 각도 이내에서 회전한 것으로 해석한 경우, 운전자의 머리 움직임이 거이 없는 것으로 간주하며, 제어부(230)는 촬상영역이 정면을 향하도록 고정시키도록 구성될 수 있다. For another example, when the motion analysis unit 220 interprets that the driver's head has rotated within a certain angle, it is considered that the driver's head movement is free, and the control unit 230 determines that the imaging area faces the front. It can be configured to fix it.

또 다른 예를 들어, 움직임 해석부(220)에서 운전자의 머리가 일정 각도 이상 회전한 것으로 해석한 경우, 제어부(230)는 촬상영역을 운전자의 머리 회전에 따라 회전시키도록 구성될 수 있다. 운전자의 차량이 사거리에서 우회전으로 진입하는 경우, 운전자는 좌측 차선을 살피기 위해 좌측 후방을 주시하게 된다. 이 때, 움직임 해석부(220)는 정면에서 좌측 후방으로 회전하는 운전자의 머리 움직임을 해석하고, 제어부(230)는 운전자의 머리 회전 방향 및 회전각도와 동일한 방향 및 각도로 거치대(104)를 제어할 수 있다. 다만, 다른 차량이 운전자의 차량의 측면과 충돌하게 된 경우, 제어부(230)는 센서를 통해 충돌을 감지하고, 사용자의 머리 움직임에 기초하여 회전 방향 및 회전 각도에 따라 거치대(104)의 동작을 제어하되, 사용자의 머리 움직임 보다 팬 회전 속도를 2~3배 빠르게 동작하도록 제어할 수 있다. For another example, when the motion analysis unit 220 interprets that the driver's head has rotated by a predetermined angle or more, the controller 230 may be configured to rotate the imaging area according to the driver's head rotation. When the driver's vehicle enters a right turn at a crossroad, the driver will look behind the left to look in the left lane. At this time, the motion analysis unit 220 analyzes the movement of the driver's head rotating from front to left and rear, and the control unit 230 controls the cradle 104 in the same direction and angle as the driver's head rotation direction and rotation angle. can do. However, when another vehicle collides with the side of the driver's vehicle, the controller 230 detects the collision through a sensor and performs the operation of the cradle 104 according to the rotation direction and rotation angle based on the user's head movement. However, the fan rotation speed can be controlled to operate 2-3 times faster than the user's head movement.

또 다른 예를 들어, 움직임 해석부(220)에서 운전자의 머리가 일정 각도 이상 회전한 후 그대로 유지한 것으로 해석한 경우, 제어부(230)는 촬상영역을 운전자의 머리 회전에 따라 회전시킨 후 추가적으로 더 회전시키도록 구성될 수 있다. 이 때, 움직임 해석부(220)는 운전자의 머리가 측면으로 회전한 것인지 또는 상하로 회전한 것인지를 회전하였는지를 판단할 수 있다. 예를 들어, 움직임 해석부(220)에서 운전자의 머리가 좌측 방향으로 10° 회전한 후, 그대로 유지한 것으로 해석한 경우, 제어부(230)는 팬(pan)을 10° 이상 회전시킬 수 있다. 이 때, 운전자가 머리를 우측 방향으로 회전한 경우, 제어부(230)는 팬의 회전을 정지시킬 수 있다. 또는, 운전자가 머리를 빠르게 우측 방향으로 회전한 경우, 제어부(230)는 거치대(104)의 카메라의 방향이 정방향으로 위치하도록 제어할 수 있다. 다른 예를 들어, 움직임 해석부(220)에서 운전자의 머리가 상단으로 5° 정도 움직인 경우, 제어부(230)는 거치대(104)의 카메라의 방향을 상단으로 5° 움직인 후 정지시키도록 제어할 수 있다. 이 때, 움직임 해석부(220)에서 운전자의 머리가 상단 방향으로 10°움직인 후, 그대로 유지한 것으로 해석한 경우, 제어부(230)는 틸트(tilt)를 10°이상 회전시킬 수 있다. 이 때, 운전자가 머리를 빠르게 하단으로 움직인 경우, 제어부(230)는 틸트의 회전을 정지시킬 수 있다. For another example, if the motion analysis unit 220 interprets that the driver's head rotates by a certain angle or more and remains as it is, the controller 230 rotates the imaging area according to the driver's head rotation, and then additionally It can be configured to rotate. In this case, the motion analysis unit 220 may determine whether the driver's head has rotated sideways or vertically. For example, when the motion analysis unit 220 interprets that the driver's head rotates 10° to the left and then maintains it as it is, the controller 230 may rotate the pan 10° or more. In this case, when the driver rotates his/her head to the right, the controller 230 may stop the rotation of the fan. Alternatively, when the driver quickly rotates his/her head to the right, the controller 230 may control the camera of the cradle 104 to be positioned in the forward direction. For another example, when the driver's head moves to the top by about 5° in the motion analysis unit 220, the controller 230 moves the camera of the cradle 104 to the top by 5° and then stops it. can do. At this time, when the motion analysis unit 220 interprets that the driver's head has moved 10° in the upper direction and then maintained as it is, the control unit 230 may rotate the tilt by 10° or more. At this time, when the driver moves his head to the lower end quickly, the controller 230 may stop the rotation of the tilt.

도 3은 본 발명의 일 실시예에 따른 촬상장치에서 촬상영역을 변화시키는 과정을 설명하기 위한 흐름도이다. 도 3을 참조하면, 촬상장치(100)는 웨어러블 디바이스(110)로부터 수신한 움직임 정보에 기초하여 운전자의 움직임을 해석한다(S310). 촬상장치(100)는 해석된 운전자의 움직임에 기초하여 운전자의 머리가 일정각도 이내에서 회전하였는지를 판단한다(S320). 이 때, 촬상장치(100)가 운전자의 머리 움직임이 일정각도 이내에서 회전한 것으로 판단하면(S321), 촬상장치(100)는 촬상영역이 정면을 향하도록 제어할 수 있다(S330). 또는, 촬상장치(100)가 운전자의 머리 움직임이 일정각도 이내에서 회전한 것이 아닌 일정각도 이상을 회전한 것으로 판단하면(S332), 촬상장치(100)는 촬상영역을 운전자의 머리 회전에 따라 회전시키도록 제어할 수 있다(S340). 3 is a flowchart illustrating a process of changing an imaging area in the imaging device according to an embodiment of the present invention. Referring to FIG. 3, the imaging apparatus 100 analyzes a driver's motion based on motion information received from the wearable device 110 (S310). The imaging device 100 determines whether the driver's head has rotated within a certain angle based on the analyzed driver's motion (S320). At this time, if the imaging device 100 determines that the driver's head movement has rotated within a certain angle (S321), the imaging device 100 may control the imaging area to face the front (S330). Alternatively, if the imaging device 100 determines that the driver's head movement is not rotated within a certain angle but has rotated more than a certain angle (S332), the imaging device 100 rotates the imaging area according to the rotation of the driver's head. It can be controlled to make it (S340).

상술한 설명에서, 단계 S310 내지 S340은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S310 to S340 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

도 4는 본 발명의 일 실시예에 따른 운전자의 시선방향에 반응하는 촬상방법을 나타낸 흐름도이다. 도 4에 도시된 실시예에 따른 운전자의 시선방향에 반응하는 촬상장치(100)에 의해 수행되는 촬상방법은 도 1에 도시된 실시예에 따른 운전자의 시선방향에 반응하는 촬상 시스템(1)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1에 도시된 실시예에 따른 운전자의 시선방향에 반응하는 촬상 시스템(1)에 관하여 이미 기술된 내용은 도 4에 도시된 실시예에 따른 운전자의 시선방향에 반응하는 촬상장치(100)에 의해 수행되는 촬상방법에도 적용된다. 4 is a flowchart illustrating an imaging method that responds to a driver's gaze direction according to an embodiment of the present invention. The imaging method performed by the imaging device 100 responding to the driver's gaze direction according to the embodiment shown in FIG. 4 is in the imaging system 1 responding to the driver's gaze direction according to the embodiment shown in FIG. It includes steps that are processed in time series. Therefore, even if omitted below, the information already described about the imaging system 1 responding to the driver's gaze direction according to the embodiment shown in FIG. 1 is based on the driver’s gaze direction according to the embodiment shown in FIG. 4. It is also applied to the imaging method performed by the responsive imaging device 100.

단계 S410에서 촬상장치(100)는 운전자가 착용한 웨어러블 디바이스(110)로부터 움직임 정보를 수신한다. 단계 S420에서 촬상장치(100)는 수신한 움직임 정보에 기초하여 운전자의 움직임을 해석한다. 단계 S430에서 촬상장치(100)는 해석된 움직임에 기초하여 촬상장치(100)의 촬상영역을 변화시킨다. 이 때, 촬상장치(100)는 움직임이 사고에 해당한다고 해석한 경우, 촬상영역을 회전시키면서 촬상장치(100)가 주변 상황 및 운전자를 촬영하도록 제어하도록 구성될 수 있다. In step S410, the imaging apparatus 100 receives motion information from the wearable device 110 worn by the driver. In step S420, the imaging device 100 analyzes the driver's motion based on the received motion information. In step S430, the imaging device 100 changes the imaging area of the imaging device 100 based on the analyzed motion. In this case, when it is interpreted that the movement corresponds to an accident, the imaging device 100 may be configured to control the imaging device 100 to capture the surrounding situation and the driver while rotating the imaging area.

상술한 설명에서, 단계 S410 내지 S430은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S410 to S430 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

도 4를 통해 설명된 운전자의 시선방향에 반응하는 촬상장치(100)에 의해 수행되는 촬상방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The imaging method performed by the imaging device 100 responsive to the driver's gaze direction described through FIG. 4 is also implemented in the form of a recording medium including instructions executable by a computer such as a program module executed by a computer. Can be. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100: 촬상장치
102: 카메라
104: 거치대
110: 웨어러블 디바이스
120: 모바일 디바이스
130: 클라우드 서버
210: 수신부
220: 움직임 해석부
230: 제어부
100: image pickup device
102: camera
104: cradle
110: wearable device
120: mobile device
130: cloud server
210: receiver
220: motion analysis unit
230: control unit

Claims (20)

운전자의 시선방향에 반응하는 촬상장치에 있어서,
상기 운전자가 착용한 웨어러블 디바이스로부터 움직임 정보를 수신하는 수신부;
상기 수신한 움직임 정보에 기초하여 상기 운전자의 움직임을 해석하는 움직임 해석부; 및
상기 해석된 움직임에 기초하여 상기 촬상장치의 촬상영역을 변화시키는 제어부;
를 포함하되,
상기 움직임 해석부가 상기 움직임이 졸음에 해당한다고 해석한 경우,
상기 웨어러블 디바이스로 경고 메시지를 출력하도록 구성된 것인, 촬상장치.
In the imaging device that responds to the driver's gaze direction,
A receiver configured to receive motion information from the wearable device worn by the driver;
A motion analysis unit that analyzes the driver's motion based on the received motion information; And
A control unit for changing the imaging area of the imaging device based on the analyzed motion;
Including,
When the motion analysis unit interprets that the motion corresponds to drowsiness,
To the wearable device configured to output a warning message.
제 1 항에 있어서,
상기 제어부는 상기 촬상장치가 조수석의 상태를 촬영하도록 제어하도록 구성되는 것인, 촬상장치.
The method of claim 1,
Wherein the control unit is configured to control the imaging device to capture a state of a passenger seat.
제 1 항에 있어서,
상기 움직임 해석부가 상기 사고가 미리 설정된 등급 이상인 것으로 해석한 경우,
상기 제어부는 촬영된 영상과 위치 좌표를 미리 정해진 연락처로 전송하도록 구성된 것인, 촬상장치.
The method of claim 1,
When the motion analysis unit interprets the accident as having a preset rating or higher,
The control unit is configured to transmit the captured image and position coordinates to a predetermined contact information.
제 1 항에 있어서,
상기 움직임 해석부가 상기 움직임이 사고에 해당한다고 해석한 경우,
상기 제어부는 상기 촬상영역을 회전시키면서 상기 촬상장치가 주변 상황 및 상기 운전자를 촬영하도록 제어하도록 구성되는, 촬상장치.
The method of claim 1,
When the motion analysis unit interprets that the motion corresponds to an accident,
The control unit is configured to control the imaging device to take pictures of a surrounding situation and the driver while rotating the imaging area.
제 1 항에 있어서,
상기 움직임 해석부가 상기 운전자의 머리가 일정 각도 이내에서 회전한 것으로 해석한 경우,
상기 제어부는 상기 촬상영역이 정면을 향하도록 고정시키도록 구성되는 것인, 촬상장치.
The method of claim 1,
When the motion analysis unit interprets that the driver's head has rotated within a certain angle,
Wherein the control unit is configured to fix the imaging area to face the front side.
제 1 항에 있어서,
상기 움직임 해석부가 상기 운전자의 머리가 일정 각도 이상 회전한 것으로 해석한 경우,
상기 제어부는 상기 촬상영역을 상기 운전자의 머리 회전에 따라 회전시키도록 구성되는 것인, 촬상장치.
The method of claim 1,
When the motion analysis unit interprets that the driver's head has rotated more than a certain angle,
The control unit is configured to rotate the imaging area according to the rotation of the driver's head.
제 6 항에 있어서,
상기 움직임 해석부가 상기 운전자의 머리가 일정 각도 이상 회전한 후 그대로 유지한 것으로 해석한 경우,
상기 제어부는 상기 촬상영역을 상기 운전자의 머리 회전에 따라 회전시킨 후 추가적으로 더 회전시키도록 구성되는 것인, 촬상장치.
The method of claim 6,
When the motion analysis unit interprets that the driver's head rotated by a certain angle or more and maintained it
The control unit is configured to further rotate the imaging area after rotating according to the rotation of the driver's head.
제 1 항에 있어서,
팬(pan) 및 틸트(tilt) 동작이 가능하도록 구성되는 차량용 거치대를 더 포함하며,
상기 제어부는 상기 거치대의 동작을 제어하도록 구성되는 것인, 촬상장치.
The method of claim 1,
Further comprising a vehicle cradle configured to enable pan and tilt operation,
The control unit is configured to control the operation of the cradle.
제 8 항에 있어서,
상기 거치대는 팬 동작이 가능한 제 1 액츄에이터 및 틸트 동작이 가능한 제 2 액츄에이터를 포함하는 것인, 촬상장치.
The method of claim 8,
The cradle includes a first actuator capable of panning and a second actuator capable of tilting.
제 1 항에 있어서,
상기 촬상장치는 상기 웨어러블 디바이스에 장착되도록 구성되는 것인, 촬상장치.
The method of claim 1,
The imaging device is configured to be mounted on the wearable device.
운전자의 시선방향에 반응하는 촬상 시스템에 있어서,
상기 운전자의 신체에 착용되어 상기 운전자에 대한 움직임 정보를 생성하는 웨어러블 디바이스;
상기 웨어러블 디바이스로부터 상기 움직임 정보를 수신하여 해석하고, 상기 해석된 움직임에 기초하여 촬상영역을 변화시키는 촬상장치;
를 포함하되,
상기 촬상장치는 팬(pan) 및 틸트(tilt) 동작이 가능하도록 구성되는 거치대;
를 포함하고,
상기 촬상장치는 상기 움직임이 졸음에 해당한다고 해석한 경우,
상기 웨어러블 디바이스로 경고 메시지를 출력하도록 구성된 것인, 촬상 시스템.
In an imaging system that responds to the driver's gaze direction,
A wearable device that is worn on the driver's body and generates motion information about the driver;
An imaging device that receives and analyzes the motion information from the wearable device, and changes an imaging area based on the analyzed motion;
Including,
The imaging device includes a cradle configured to enable pan and tilt operations;
Including,
When the imaging device interprets that the movement corresponds to drowsiness,
And outputting a warning message to the wearable device.
제 11 항에 있어서,
상기 촬상장치는 조수석의 상태를 촬영하도록 제어하도록 구성되는 것인, 촬상 시스템.
The method of claim 11,
Wherein the imaging device is configured to control the state of the passenger seat to be photographed.
제 11 항에 있어서,
상기 촬상장치는 상기 사고가 미리 설정된 등급 이상인 것으로 해석한 경우,
촬영된 영상과 위치 좌표를 미리 정해진 연락처로 전송하도록 구성된 것인, 촬상 시스템.
The method of claim 11,
When the imaging device interprets that the accident is above a preset rating,
Is configured to transmit the captured image and location coordinates to a predetermined contact, imaging system.
제 11 항에 있어서,
상기 촬상장치는 상기 움직임이 사고에 해당한다고 해석한 경우,
상기 촬상영역을 회전시키면서 상기 촬상장치가 주변 상황 및 상기 운전자를 촬영하도록 제어하도록 구성되는, 촬상 시스템.
The method of claim 11,
When the imaging device interprets that the movement corresponds to an accident,
An imaging system, configured to control the imaging device to take pictures of a surrounding situation and the driver while rotating the imaging area.
제 11 항에 있어서,
상기 촬상장치는 상기 운전자의 머리가 일정 각도 이내에서 회전한 것으로 해석한 경우,
상기 촬상영역이 정면을 향하도록 고정시키도록 구성되는 것인, 촬상 시스템.
The method of claim 11,
When the imaging device interprets that the driver's head has rotated within a certain angle,
An imaging system configured to fix the imaging area to face the front side.
제 11 항에 있어서,
상기 촬상장치는 상기 운전자의 머리가 일정 각도 이상 회전한 것으로 해석한 경우,
상기 촬상영역을 상기 운전자의 머리 회전에 따라 회전시키도록 구성되는 것인, 촬상 시스템.
The method of claim 11,
When the imaging device interprets that the driver's head has rotated by a certain angle or more,
And the imaging system being configured to rotate the imaging area according to the rotation of the driver's head.
제 16 항에 있어서,
상기 촬상장치는 상기 운전자의 머리가 일정 각도 이상 회전한 후 그대로 유지한 것으로 해석한 경우,
상기 촬상영역을 상기 운전자의 머리 회전에 따라 회전시킨 후 추가적으로 더 회전시키도록 구성되는 것인, 촬상 시스템.
The method of claim 16,
When the imaging device is interpreted as maintaining the driver's head after rotating at a certain angle or more,
The imaging system is configured to further rotate the imaging area after rotating according to the rotation of the driver's head.
운전자의 시선방향에 반응하는 촬상 시스템에 있어서,
상기 운전자의 신체에 착용되어 상기 운전자에 대한 움직임 정보를 생성하는 웨어러블 디바이스;
상기 웨어러블 디바이스로부터 상기 움직임 정보를 수신하여 해석하고, 상기 해석된 움직임에 기초하여 촬상영역을 변화시키는 촬상장치;
를 포함하되,
상기 촬상장치는 팬(pan) 및 틸트(tilt) 동작이 가능하도록 구성되는 거치대;
를 포함하고,
상기 촬상장치는 상기 거치대의 동작을 제어하도록 구성되고,
상기 거치대는 팬 동작이 가능한 제 1 액츄에이터 및 틸트 동작이 가능한 제 2 액츄에이터를 포함하는 것인, 촬상 시스템.
In an imaging system that responds to the driver's gaze direction,
A wearable device that is worn on the driver's body and generates motion information about the driver;
An imaging device that receives and analyzes the motion information from the wearable device, and changes an imaging area based on the analyzed motion;
Including,
The imaging device includes a cradle configured to enable pan and tilt operations;
Including,
The imaging device is configured to control the operation of the cradle,
The cradle includes a first actuator capable of panning and a second actuator capable of tilting.
제 11 항에 있어서,
상기 촬상장치는 상기 웨어러블 디바이스에 장착되도록 구성되는 것인, 촬상 시스템.
The method of claim 11,
Wherein the imaging device is configured to be mounted on the wearable device.
운전자의 시선방향에 반응하는 촬상방법에 있어서,
상기 운전자가 착용한 웨어러블 디바이스로부터 움직임 정보를 수신하는 단계;
상기 수신한 움직임 정보에 기초하여 상기 운전자의 움직임을 해석하는 단계; 및
상기 해석된 움직임에 기초하여 촬상장치의 촬상영역을 변화시키는 단계;
를 포함하되,
상기 움직임이 졸음에 해당한다고 해석한 경우,
상기 웨어러블 디바이스로 경고 메시지를 출력하도록 구성되는 단계를 더 포함하는 것인, 촬상방법.
In the imaging method that responds to the driver's gaze direction,
Receiving motion information from a wearable device worn by the driver;
Analyzing the driver's motion based on the received motion information; And
Changing an imaging area of the imaging device based on the analyzed motion;
Including,
If the movement is interpreted as drowsiness
Further comprising a step, configured to output a warning message to the wearable device.
KR1020140123633A 2014-09-17 2014-09-17 Camera device, system and method responsive to gaze direction of driver KR102200218B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140123633A KR102200218B1 (en) 2014-09-17 2014-09-17 Camera device, system and method responsive to gaze direction of driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140123633A KR102200218B1 (en) 2014-09-17 2014-09-17 Camera device, system and method responsive to gaze direction of driver

Publications (2)

Publication Number Publication Date
KR20160032905A KR20160032905A (en) 2016-03-25
KR102200218B1 true KR102200218B1 (en) 2021-01-08

Family

ID=55645551

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140123633A KR102200218B1 (en) 2014-09-17 2014-09-17 Camera device, system and method responsive to gaze direction of driver

Country Status (1)

Country Link
KR (1) KR102200218B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180076464A (en) * 2016-12-28 2018-07-06 (주)이로움 Drowsiness drive warning system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101229496B1 (en) * 2006-11-29 2013-02-04 삼성전자주식회사 A camera movement controller and the method thereof
KR101319939B1 (en) * 2011-09-09 2013-10-29 주식회사 유비벨록스모바일 System and method for diagnosising accident using black box and detecting sensor
KR101724754B1 (en) * 2011-12-16 2017-04-19 현대자동차주식회사 A imaging system of the vehicle around image using the motion recognition

Also Published As

Publication number Publication date
KR20160032905A (en) 2016-03-25

Similar Documents

Publication Publication Date Title
KR102464898B1 (en) Method and apparatus for sharing video information associated with a vihicle
JP6547900B2 (en) Glasses-type wearable terminal, control method thereof and control program
US20160280131A1 (en) Connected vehicle system
US20200396413A1 (en) Recording control device, recording control system, recording control method, and recording control program
KR101751362B1 (en) Apparatus for storaging image of camera at night and method for storaging image thereof
US11587419B2 (en) Methods and systems providing an intelligent camera system
JP6669019B2 (en) VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM
JP6906052B2 (en) Methods and systems for adjusting the orientation of the bar channel camera when turning the vehicle
JP2012037688A5 (en)
JP2012078785A5 (en)
US20160075282A1 (en) Vehicle Monitoring, Safety, and Tracking System
JPWO2018180579A1 (en) Imaging control device, control method of imaging control device, and moving object
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
KR102200218B1 (en) Camera device, system and method responsive to gaze direction of driver
JP6981095B2 (en) Server equipment, recording methods, programs, and recording systems
JP2020017077A (en) Accident notification device and accident notification method
JP2020150295A (en) Vehicle crime prevention device
WO2023205571A1 (en) Systems and methods of collaborative enhanced sensing
WO2021131481A1 (en) Display device, display method, and display program
KR101973300B1 (en) Vehicular image-display system
KR102151163B1 (en) Video processing apparatus and operating method for the same
JP2019036861A (en) Information processing apparatus, information processing method, and program
KR20220060786A (en) Vehicle and controlling method of vehicle
JP7348724B2 (en) In-vehicle device and display method
JP7170167B2 (en) Imaging device, display system, and imaging system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant