KR102596487B1 - Display Control System, Method and Computer Readable Record Medium Thereof - Google Patents

Display Control System, Method and Computer Readable Record Medium Thereof Download PDF

Info

Publication number
KR102596487B1
KR102596487B1 KR1020160042396A KR20160042396A KR102596487B1 KR 102596487 B1 KR102596487 B1 KR 102596487B1 KR 1020160042396 A KR1020160042396 A KR 1020160042396A KR 20160042396 A KR20160042396 A KR 20160042396A KR 102596487 B1 KR102596487 B1 KR 102596487B1
Authority
KR
South Korea
Prior art keywords
face area
size
control
user
coordinate
Prior art date
Application number
KR1020160042396A
Other languages
Korean (ko)
Other versions
KR20170114822A (en
Inventor
김두만
심정민
조성봉
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Priority to KR1020160042396A priority Critical patent/KR102596487B1/en
Publication of KR20170114822A publication Critical patent/KR20170114822A/en
Application granted granted Critical
Publication of KR102596487B1 publication Critical patent/KR102596487B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Abstract

표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체가 개시된다. 본 발명의 일 실시예에 따른 표시 제어 시스템은, 이미지 또는 영상을 표시하는 표시부, 사용자 및 상기 사용자 주변 영상을 촬영하는 촬영부, 상기 사용자의 얼굴 영역을 검출하는 얼굴 영역 검출부, 상기 얼굴 영역의 크기 및 기준 좌표를 산출하는 연산부 및 상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 표시부에 표시되는 이미지 또는 영상에 대한 PTZ 제어를 수행하는 제어부를 포함한다.A display control system, method, and computer-readable recording medium are disclosed. A display control system according to an embodiment of the present invention includes a display unit that displays an image or video, a photographing unit that captures a user and images surrounding the user, a face area detection unit that detects the user's face area, and a size of the face area. and a calculation unit that calculates reference coordinates and a control unit that performs PTZ control on the image or video displayed on the display unit in response to changes in the size of the face area and the reference coordinates over time.

Description

표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체{Display Control System, Method and Computer Readable Record Medium Thereof}Display Control System, Method and Computer Readable Record Medium Thereof}

본 발명은 표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 구체적으로는 사용자의 시선 변화에 따라 표시되는 화면에 대한 PTZ 제어를 수행하는 표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a display control system, method, and computer-readable recording medium, and more specifically, to a display control system, method, and computer-readable recording medium that perform PTZ control on a screen displayed according to a change in the user's gaze. It's about.

최근 미디어와 인간이 서로 친화적으로 쉽게 상호작용(HCI, Human Computer Interface)하도록 하는 기술이 급속도로 발전하고 있다. 특히, 영상을 캡쳐 또는 재생하는 장치의 성능 진화 및 저렴해진 가격으로 인하여, 영상을 편집 도는 가공할 수 있는 이미지 처리 시스템이 데스크탑에서도 가능해지기 시작했다.Recently, technology that allows media and humans to interact easily with each other (HCI, Human Computer Interface) is rapidly developing. In particular, due to the evolution of performance and lower prices of devices for capturing or playing video, image processing systems that can edit or process video have begun to become available on desktops.

그 결과, 사용자의 고유성, 상태, 의도, 표정 등이 드러나는 얼굴이 포함된 이미지를 컴퓨터로 인식 또는 처리하는 기술이 비전(vision) 기반의 HCI 분야에서 주요한 과제가 되었다.As a result, technology for computer recognition or processing of images containing faces that reveal the user's uniqueness, status, intention, and expression has become a major challenge in the vision-based HCI field.

이와 관련하여, 사용자의 움직임을 반영한 표시 제어 방법에 관한 연구도 활발하게 진행되고 있으며, 이러한 연구는 사용자로 하여금 보다 현실감 있는 영상을 제공하는 것을 목적으로 한다.In relation to this, research on display control methods that reflect the user's movements is also being actively conducted, and this research aims to provide users with more realistic images.

도 1은 표시 장치를 이용하여 이미지 또는 동영상을 감상하는 사용자를 예시적으로 나타내는 도면이다. 상기 사용자의 움직임을 반영하는 표시 장치는 도 1에 도시되는 표시 장치(모니터)와 함께 상기 사용자를 바라보는 위치에 설치되는 카메라를 이용하여 상기 사용자를 촬영하고, 촬영된 영상을 분석하여 상기 표시 장치에 표시되는 영상을 제어할 수 있다.1 is a diagram illustrating a user viewing an image or video using a display device. The display device that reflects the user's movements captures the user using a camera installed at a position facing the user along with the display device (monitor) shown in FIG. 1, analyzes the captured image, and displays the display device. You can control the image displayed.

현재까지 개발된 기술들은 그 실현 가능성 및 효과를 차치하더라도 복잡한 연산 과정을 필요로 하며, 이에 따라 프로세서의 연산 부담이 가중되고 신속한 데이터 처리에 문제가 발생할 수 있다.Aside from their feasibility and effectiveness, the technologies developed to date require complex computational processes, which increases the computational burden on the processor and may cause problems with rapid data processing.

본 발명은 사용자의 시선 변화에 대응하여 표시 화면을 제어함으로써 보다 현실감 있고 입체적인 화면을 표시할 수 있는 표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공하는 것을 목적으로 한다.The purpose of the present invention is to provide a display control system, method, and computer-readable recording medium that can display a more realistic and three-dimensional screen by controlling the display screen in response to changes in the user's gaze.

본 발명의 일 실시예에 따른 표시 제어 시스템은, 이미지 또는 영상을 표시하는 표시부, 사용자 및 상기 사용자 주변 영상을 촬영하는 촬영부, 상기 사용자의 얼굴 영역을 검출하는 얼굴 영역 검출부, 상기 얼굴 영역의 크기 및 기준 좌표를 산출하는 연산부 및 상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 표시부에 표시되는 이미지 또는 영상에 대한 PTZ 제어를 수행하는 제어부를 포함한다.A display control system according to an embodiment of the present invention includes a display unit that displays an image or video, a photographing unit that captures a user and images surrounding the user, a face area detection unit that detects the user's face area, and a size of the face area. and a calculation unit that calculates reference coordinates and a control unit that performs PTZ control on the image or video displayed on the display unit in response to changes in the size of the face area and the reference coordinates over time.

또한, 상기 제어부는 제1 시점 및 제2 시점에서의 상기 얼굴 영역의 크기가 변화하는 경우, 줌-인 (Zoom-In) 또는 줌-아웃 (Zoom-Out) 제어를 수행할 수 있다.Additionally, the controller may perform zoom-in or zoom-out control when the size of the face area changes between the first and second viewpoints.

또한, 상기 제어부는 제1 시점 및 제2 시점에서의 상기 기준 좌표의 x 좌표가 변화하는 경우, 팬 (Pan) 제어를 수행할 수 있으며, 상기 제어부는 제1 시점 및 제2 시점에서의 상기 기준 좌표의 y 좌표가 변화하는 경우, 틸트 (Tilt) 제어를 수행할 수 있다.In addition, the control unit may perform pan control when the x-coordinate of the reference coordinates at the first and second time points changes, and the control unit may control the reference coordinates at the first and second time points. If the y coordinate of the coordinate changes, tilt control can be performed.

한편, 본 발명의 다른 실시예에 따른 표시 제어 시스템은, 영상을 촬영하는 카메라 및 상기 카메라와 유선 또는 무선으로 연결되어 상기 카메라로부터 영상을 수신하는 사용자 단말 장치를 포함하는 영상 표시 제어 시스템으로서, 상기 사용자 단말 장치는, 상기 카메라로부터 수신되는 영상을 표시하는 표시부, 사용자 및 상기 사용자 주변 영상을 촬영하는 촬영부, 상기 사용자의 얼굴 영역을 검출하는 얼굴 영역 검출부, 상기 얼굴 영역의 크기 및 기준 좌표를 산출하는 연산부 및 상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 카메라에 대한 PTZ 제어를 수행하는 제어부를 포함한다.Meanwhile, a display control system according to another embodiment of the present invention is an image display control system including a camera that captures an image and a user terminal device that is wired or wirelessly connected to the camera and receives the image from the camera, The user terminal device includes a display unit that displays an image received from the camera, a photographing unit that captures images of the user and the user's surroundings, a face area detection unit that detects the user's face area, and calculation of the size and reference coordinates of the face area. and a control unit that performs PTZ control on the camera in response to changes over time in the size of the face area and the reference coordinates.

또한, 상기 제어부는 제1 시점 및 제2 시점에서의 상기 얼굴 영역의 크기가 변화하는 경우, 줌-인 (Zoom-In) 또는 줌-아웃 (Zoom-Out) 제어를 수행할 수 있다.Additionally, the controller may perform zoom-in or zoom-out control when the size of the face area changes between the first and second viewpoints.

또한, 상기 제어부는 제1 시점 및 제2 시점에서의 상기 기준 좌표의 x 좌표가 변화하는 경우, 팬 (Pan) 제어를 수행할 수 있으며, 상기 제어부는 제1 시점 및 제2 시점에서의 상기 기준 좌표의 y 좌표가 변화하는 경우, 틸트 (Tilt) 제어를 수행할 수 있다.In addition, the control unit may perform pan control when the x-coordinate of the reference coordinates at the first and second time points changes, and the control unit may control the reference coordinates at the first and second time points. If the y coordinate of the coordinate changes, tilt control can be performed.

한편, 본 발명의 일 실시예에 따른 표시 제어 방법은, 이미지 또는 영상을 표시하는 표시부를 포함하는 사용자 단말 장치를 이용하는 영상 표시 제어 방법으로서, 사용자 및 상기 사용자 주변 영상을 촬영하는 단계, 상기 사용자의 얼굴 영역을 검출하는 단계, 상기 얼굴 영역의 크기 및 기준 좌표를 산출하는 단계 및 상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 표시부에 표시되는 이미지 또는 영상에 대한 PTZ 제어를 수행하는 단계를 포함한다.Meanwhile, a display control method according to an embodiment of the present invention is an image display control method using a user terminal device including a display unit that displays an image or video, comprising the steps of photographing a user and an image surrounding the user, Detecting a face area, calculating the size and reference coordinates of the face area, and PTZ control for the image or video displayed on the display unit in response to changes in the size of the face area and the reference coordinates over time. It includes steps to perform.

또한, 상기 PTZ 제어 수행 단계에서는, 제1 시점 및 제2 시점에서의 상기 얼굴 영역의 크기가 변화하는 경우, 줌-인 (Zoom-In) 또는 줌-아웃 (Zoom-Out) 제어를 수행할 수 있다.Additionally, in the PTZ control performance step, when the size of the face area changes at the first and second viewpoints, zoom-in or zoom-out control can be performed. there is.

또한, 상기 PTZ 제어 수행 단계에서는, 제1 시점 및 제2 시점에서의 상기 기준 좌표의 x 좌표가 변화하는 경우, 팬 (Pan) 제어를 수행할 수 있으며, 상기 PTZ 제어 수행 단계에서는, 제1 시점 및 제2 시점에서의 상기 기준 좌표의 y 좌표가 변화하는 경우, 틸트 (Tilt) 제어를 수행할 수 있다.In addition, in the PTZ control execution step, when the x-coordinate of the reference coordinate at the first and second viewpoints changes, pan control may be performed, and in the PTZ control execution step, the And when the y-coordinate of the reference coordinate at the second viewpoint changes, tilt control can be performed.

또한, 본 발명에 따른 영상 표시 제어 방법을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록 매체가 제공될 수 있다.Additionally, a computer-readable recording medium on which a program for executing the image display control method according to the present invention is recorded may be provided.

본 발명은 사용자의 시선 변화에 대응하여 표시 화면을 제어함으로써 보다 현실감 있고 입체적인 화면을 표시할 수 있는 표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.The present invention can provide a display control system, method, and computer-readable recording medium that can display a more realistic and three-dimensional screen by controlling the display screen in response to changes in the user's gaze.

도 1은 표시 장치를 이용하여 이미지 또는 동영상을 감상하는 사용자를 예시적으로 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 표시 제어 시스템의 구성을 개략적으로 나타내는 도면이다.
도 3 내지 도 5는 표시 화면에 대한 사용자 시선의 변화에 대응하여 수행되는 화면 제어를 예시적으로 나타내는 도면이다.
도 6은 원격지에 배치되는 카메라와 연결되는 사용자 단말기를 사용하는 사용자를 예시적으로 나타내는 도면이다.
도 7은 본 발명의 다른 실시예에 따른 표시 제어 시스템의 구성을 개략적으로 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 표시 제어 방법의 흐름을 개략적으로 나타내는 순서도이다.
1 is a diagram illustrating a user viewing an image or video using a display device.
Figure 2 is a diagram schematically showing the configuration of a display control system according to an embodiment of the present invention.
3 to 5 are diagrams illustrating screen control performed in response to a change in the user's gaze on the display screen.
Figure 6 is a diagram illustrating a user using a user terminal connected to a camera located in a remote location.
Figure 7 is a diagram schematically showing the configuration of a display control system according to another embodiment of the present invention.
Figure 8 is a flowchart schematically showing the flow of a display control method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 구성을 갖는 구성 요소에 대해서는, 동일한 부호를 사용함으로써 중복 설명을 생략한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings. In addition, in this specification and drawings, the same symbols are used for components having substantially the same configuration, thereby omitting redundant description.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms used herein are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “include” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by these terms. The above terms are used only for the purpose of distinguishing one component from another.

도 2는 본 발명의 일 실시예에 따른 표시 제어 시스템의 구성을 개략적으로 나타내는 도면이다. 도 2를 참조하면, 본 발명의 일 실시예에 따른 표시 제어 시스템(100)은, 표시부(110), 촬영부(120), 얼굴 영역 검출부(130), 연산부(140) 및 제어부(150)를 포함한다.Figure 2 is a diagram schematically showing the configuration of a display control system according to an embodiment of the present invention. Referring to FIG. 2, the display control system 100 according to an embodiment of the present invention includes a display unit 110, a photographing unit 120, a face area detection unit 130, a calculation unit 140, and a control unit 150. Includes.

표시부(110)는 이미지 또는 영상을 표시한다. 본 발명에 따른 표시 제어 시스템(100)은 상기 이미지 또는 영상을 표시할 수 있는 표시부(110)를 포함함과 동시에, 유?무선 통신을 통해 외부로부터 데이터를 수신할 수 있으며, 상기 데이터는 상기 이미지 또는 영상을 포함할 수 있다. 표시부(110)는 상기 데이터에 포함된 이미지 또는 영상을 표시할 수 있다.The display unit 110 displays an image or video. The display control system 100 according to the present invention includes a display unit 110 capable of displaying the image or video, and is capable of receiving data from the outside through wired or wireless communication, and the data is stored in the image. Or it may include video. The display unit 110 can display images or videos included in the data.

또는, 상기 표시 제어 시스템(100)은 이미지 또는 영상을 저장하는 메모리 장치(미도시)를 포함할 수 있으며, 표시부(110)는 상기 메모리 장치에 저장된 이미지 또는 영상을 표시할 수 있다.Alternatively, the display control system 100 may include a memory device (not shown) that stores an image or video, and the display unit 110 may display the image or video stored in the memory device.

촬영부(120)는 사용자 및 상기 사용자 주변 영상을 촬영한다. 상기 표시 제어 시스템(100)이 스마트폰과 같은 이동통신 단말기를 포함하는 경우, 상기 이동통신 단말기는 단말기 전면과 후면에 각각 이미지 및/또는 동영상을 촬영할 수 있는 카메라를 구비할 수 있다. 이때, 촬영부(120)는 상기 이동통신 단말기의 전면 카메라를 포함할 수 있다.The photographing unit 120 captures images of the user and surroundings of the user. When the display control system 100 includes a mobile communication terminal such as a smartphone, the mobile communication terminal may be equipped with a camera capable of taking images and/or video on the front and back of the terminal, respectively. At this time, the photographing unit 120 may include a front camera of the mobile communication terminal.

또는, 상기 표시 제어 시스템(100)이 데스크 탑 또는 노트북을 포함하는 경우, 촬영부(120)는 데스크 탑에 연결되어 상기 데스크 탑을 사용하는 사용자를 촬영할 수 있는 웹 카메라(Web Camera)일 수 있으며, 또는 상기 노트북의 모니터에 구비되는 카메라일 수 있다.Alternatively, when the display control system 100 includes a desktop or a laptop, the photographing unit 120 may be a web camera that is connected to the desktop and can capture a user using the desktop. , or it may be a camera provided on the monitor of the laptop.

얼굴 영역 검출부(130)는 상기 사용자의 얼굴 영역을 검출한다. 촬영부(120)에서 촬영되는 영상은 얼굴 영역 검출부(130)로 제공되며, 얼굴 영역 검출부(130)는 촬영부(120)에서 촬영되는 영상에서 상기 사용자의 얼굴 영역만을 검출한다.The face area detection unit 130 detects the user's face area. The image captured by the photographing unit 120 is provided to the face area detection unit 130, and the face area detection unit 130 detects only the user's face area from the image captured by the photographing unit 120.

얼굴 영역을 검출하는 것은 얼굴 인식 또는 안면 인식과 관련될 수 있으며, 얼굴 인식과 관련된 알고리즘은 다양하게 존재하며, 고유 얼굴을 이용하는 주성분 분석, 선형 감별 분석, Fisherface 알고리즘을 이용하는 탄성 무리 그래프 매칭 분석 등이 이용될 수 있다. 한편, 본 발명에 따른 표시 제어 시스템(100)에서 사용하는 얼굴 인식 방법은 어느 한 가지 방법으로 제한되지 않으며, 영상에 포함되는 사람의 얼굴 영역을 검출할 수 있는 어떠한 알고리즘도 사용될 수 있다.Detecting a face area can be related to face recognition or facial recognition, and there are a variety of algorithms related to face recognition, including principal component analysis using unique faces, linear discriminant analysis, and elastic swarm graph matching analysis using the Fisherface algorithm. It can be used. Meanwhile, the face recognition method used in the display control system 100 according to the present invention is not limited to any one method, and any algorithm capable of detecting the human face area included in the image can be used.

얼굴 영역 검출부(130)에서 검출되는 상기 사용자의 얼굴 영역은 이마를 제외한 눈, 코, 입, 턱을 포함하는 영역일 수 있으며, 또는 상기 사용자의 이마 영역까지 포함할 수 있다. 또는, 상기 사용자의 목까지 포함하는 영역이 얼굴 영역으로 검출될 수도 있다.The user's face area detected by the face area detector 130 may include the eyes, nose, mouth, and chin excluding the forehead, or may even include the user's forehead area. Alternatively, the area including the user's neck may be detected as the face area.

다만, 얼굴 영역 검출부(130)에서 검출되는 상기 사용자의 얼굴 영역은 시간에 따라 항상 동일한 요소를 포함하는 것으로 이해할 수 있다. 상기 얼굴 영역이 상기 사용자의 눈, 코, 입, 턱 및 이마를 포함하도록 설정된 경우에는 시간의 흐름에도 불구하고, 얼굴 영역 검출부(130)에서 검출되는 상기 사용자의 얼굴 영역은 항상 눈, 코, 입, 턱 및 이마를 포함한다.However, it can be understood that the user's face area detected by the face area detector 130 always includes the same elements over time. When the face area is set to include the user's eyes, nose, mouth, chin, and forehead, the user's face area detected by the face area detector 130 always includes the eyes, nose, and mouth, despite the passage of time. , chin and forehead.

연산부(140)는 상기 얼굴 영역의 크기 및 기준 좌표를 산출한다. 촬영부(120)에서 촬영되는 영상은 m×n 개의 픽셀(pixel)로 이루어질 수 있으며, 상기 얼굴 영역의 크기는 상기 얼굴 영역에 해당하는 픽셀의 개수를 이용하여 산출될 수 있다.The calculation unit 140 calculates the size and reference coordinates of the face area. The image captured by the photographing unit 120 may consist of m×n pixels, and the size of the face area may be calculated using the number of pixels corresponding to the face area.

상기 기준 좌표는 상기 얼굴 영역에 포함되는 모든 픽셀의 평균 좌표 값에 대응할 수 있으며, 또는 상기 모든 픽셀의 중간 좌표 값에 대응할 수도 있다. 상기 좌표 값 또는 상기 중간 좌표 값은 상기 얼굴 영역에 포함되는 픽셀들의 x 좌표 값, y 좌표 값을 이용하여 계산될 수 있다.The reference coordinate may correspond to the average coordinate value of all pixels included in the face area, or may correspond to the intermediate coordinate value of all pixels. The coordinate value or the intermediate coordinate value may be calculated using the x-coordinate value and y-coordinate value of pixels included in the face area.

제어부(150)는 상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 표시부에 표시되는 이미지 또는 영상에 대한 PTZ 제어를 수행한다.The control unit 150 performs PTZ control on the image or video displayed on the display unit in response to changes over time in the size of the face area and the reference coordinates.

촬영부(120)에서 촬영되는 영상은 초당 정해진 개수의 프레임(frame)을 포함하며, 각각의 프레임은 m×n 개의 픽셀로 이루어질 수 있다. 얼굴 영역 검출부(130)는 상기 프레임 각각으로부터 상기 사용자의 얼굴 영역을 검출하고, 연산부(140)는 얼굴 영역 검출부(130)에서 검출되는 상기 사용자의 얼굴 영역으로부터 상기 얼굴 영역의 크기와 기준 좌표를 산출한다.The image captured by the photographing unit 120 includes a fixed number of frames per second, and each frame may be composed of m×n pixels. The face area detection unit 130 detects the user's face area from each of the frames, and the calculation unit 140 calculates the size and reference coordinates of the face area from the user's face area detected by the face area detection unit 130. do.

상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화는 프레임의 변화에 따른 변화로 이해할 수 있으며, 제어부(150)는 이러한 변화에 대응하여 표시부(110)를 통해 표시되는 이미지 또는 영상에 대한 PTZ 제어를 수행한다.Changes in the size of the face area and the reference coordinates over time can be understood as changes due to changes in the frame, and the control unit 150 controls the PTZ for the image or video displayed through the display unit 110 in response to these changes. perform control.

상기 PTZ 제어는 Pan, Tilt, Zoom 제어를 의미하며, Pan 제어는 x 축 방향, Tilt 제어는 y 축 방향, Zoom 제어는 z 축 방향의 제어를 의미한다. 이하, 도 3 내지 도 5를 참조하여 제어부(150)의 PTZ 제어 동작을 보다 구체적으로 설명하도록 한다.The PTZ control refers to Pan, Tilt, and Zoom control. Pan control refers to the x-axis direction, Tilt control refers to the y-axis direction, and Zoom control refers to the z-axis direction. Hereinafter, the PTZ control operation of the control unit 150 will be described in more detail with reference to FIGS. 3 to 5.

도 3 내지 도 5는 표시 화면에 대한 사용자 시선의 변화에 대응하여 수행되는 화면 제어를 예시적으로 나타낸다.3 to 5 exemplarily show screen control performed in response to a change in the user's gaze on the display screen.

먼저, 도 3은, 도 2를 참조로 하여 설명한 촬영부(120)를 기준으로 사용자가 멀어지는 경우, 제어부(150)에 의해 Zooom 제어가 수행되는 경우를 예시적으로 나타낸다.First, FIG. 3 exemplarily shows a case in which zoom control is performed by the control unit 150 when the user moves away from the photographing unit 120 described with reference to FIG. 2 .

도 3(a) 및 도 3(b)는 각각 제1 시점(t1) 및 제2 시점(t2)에서 촬영된 영상으로부터 검출된 상기 사용자의 얼굴 영역을 나타내며, 도 3(c) 및 도 3(d)는 각각 도 3(a) 및 도 3(b)의 얼굴 영역의 크기 변화에 대응하는 표시부(110)를 통해 표시되는 이미지 또는 영상의 변화를 나타낸다. 여기서, 상기 제1 시점(t1)은 상기 제2 시점(t2)보다 시간적으로 앞서는 것으로 이해할 수 있다.Figures 3(a) and 3(b) show the user's face area detected from images taken at the first time point (t1) and the second time point (t2), respectively, and Figures 3(c) and 3( d) represents a change in the image or video displayed through the display unit 110 corresponding to a change in the size of the face area in FIGS. 3(a) and 3(b), respectively. Here, the first time point (t1) can be understood as temporally preceding the second time point (t2).

도 3(a) 및 도 3(b)를 참조하면, 제2 시점(t2)에서 검출된 상기 사용자의 얼굴 영역의 크기는 제1 시점(t1)에서 검출된 상기 사용자의 얼굴 영역의 크기보다 작고, 상기 얼굴 영역의 기준 좌표는 동일하다.Referring to FIGS. 3(a) and 3(b), the size of the user's face area detected at the second time point (t2) is smaller than the size of the user's face area detected at the first time point (t1). , the reference coordinates of the face area are the same.

이러한 경우, 제어부(150)는 상기 사용자가 촬영부(120)에서 멀어지는 방향으로 이동한 것으로 판단할 수 있다. 즉, 제어부(150)는 상기 사용자의 시선이 촬영부(120)에서 멀어지는 방향으로 이동한 것으로 판단할 수 있으며, 제어부(150)는 이에 대응하여 표시부(110)에 표시되는 이미지 또는 영상에 대한 줌(Zoom) 제어를 수행한다.In this case, the control unit 150 may determine that the user has moved away from the photographing unit 120. That is, the control unit 150 may determine that the user's gaze has moved away from the photographing unit 120, and the control unit 150 may zoom in on the image or video displayed on the display unit 110 in response. Perform (Zoom) control.

도 3(c) 및 도 3(d)를 참조하면, 제2 시점(t2)에서 표시되는 이미지 또는 영상은 제1 시점(t1)에서 표시되는 이미지 또는 영상보다 더 넓은 영역을 포함한다. 도 3(d)에서 쇄선 영역(A)은 제1 시점(t1)에서 표시되는 이미지 또는 영상의 영역을 의미한다.Referring to FIGS. 3(c) and 3(d), the image or video displayed at the second viewpoint t2 includes a wider area than the image or video displayed at the first viewpoint t1. In FIG. 3(d), the dashed line area (A) refers to the image or area of the video displayed at the first viewpoint (t1).

도 3은 상기 사용자의 얼굴 영역의 크기가 작아지는 경우 줌-아웃(Zoom-Out) 제어가 수행되는 것을 예로써 도시하며, 이와 반대로 상기 사용자의 얼굴 영역의 크기가 커지는 경우에는 제어부(150)는 상기 사용자가 촬영부(120)에 가까워지는 방향으로 이동한 것으로 판단하고, 이에 따라 표시부(110) 표시되는 이미지 또는 영상에 대해 줌-인(Zoom-In) 제어를 수행할 수 있다.Figure 3 shows as an example that zoom-out control is performed when the size of the user's face area becomes small. Conversely, when the size of the user's face area becomes large, the control unit 150 It is determined that the user has moved in a direction closer to the photographing unit 120, and accordingly, zoom-in control can be performed on the image or video displayed on the display unit 110.

도 4는, 촬영부(120)를 기준으로 사용자가 오른쪽으로 이동하는 경우, 제어부(150)에 의해 Pan 제어가 수행되는 경우를 예시적으로 나타낸다.FIG. 4 exemplarily shows a case in which pan control is performed by the control unit 150 when the user moves to the right with respect to the photographing unit 120.

도 4(a) 및 도 4(b)는 각각 제1 시점(t1) 및 제2 시점(t2)에서 촬영된 영상으로부터 검출된 상기 사용자의 얼굴 영역을 나타내며, 도 4(c) 및 도 4(d)는 각각 도 4(a) 및 도 4(b)의 얼굴 영역의 기준 좌표 변화에 대응하는 표시부(110)를 통해 표시되는 이미지 또는 영상의 변화를 나타낸다. 여기서, 상기 제1 시점(t1)은 상기 제2 시점(t2)보다 시간적으로 앞서는 것으로 이해할 수 있으며, 도 3에서 예로써 설명한 제1 시점 및 제2 시점과 다른 시점을 의미하는 것으로 이해할 수 있다.Figures 4(a) and 4(b) show the user's face area detected from images captured at the first time point (t1) and the second time point (t2), respectively, and Figures 4(c) and 4( d) represents a change in the image or video displayed through the display unit 110 corresponding to a change in the reference coordinate of the face area in FIGS. 4(a) and 4(b), respectively. Here, the first time point t1 can be understood as being temporally ahead of the second time point t2, and can be understood to mean a time point different from the first time point and the second time point described as an example in FIG. 3.

도 4(a) 및 도 4(b)를 참조하면, 제2 시점(t2)에서 검출된 상기 사용자의 얼굴 영역의 기준 좌표의 x 좌표는 제1 시점(t1)에서 검출된 상기 사용자의 얼굴 영역의 기준 좌표의 x 좌표보다 오른쪽에 위치하며, 상기 제1 시점(t1)과 상기 제2 시점(t2)에서 기준 좌표의 y 좌표 및 상기 얼굴 영역의 크기는 동일하다. 여기서, 상기 얼굴 영역의 기준 좌표는 도 2를 참조로 하여 설명한 바와 같이, 상기 얼굴 영역에 포함되는 픽셀의 평균 좌표 또는 중간 좌표일 수 있으며, 상기 얼굴 영역 내에 존재한다.Referring to FIGS. 4(a) and 4(b), the x coordinate of the reference coordinate of the user's face area detected at the second time point t2 is the user's face area detected at the first time point t1. is located to the right of the x-coordinate of the reference coordinate, and the y-coordinate of the reference coordinate and the size of the face area are the same at the first viewpoint (t1) and the second viewpoint (t2). Here, the reference coordinates of the face area may be the average coordinates or intermediate coordinates of pixels included in the face area, as described with reference to FIG. 2, and exist within the face area.

이러한 경우, 제어부(150)는 상기 사용자가 촬영부(120)를 기준으로 오른쪽으로 이동한 것으로 판단할 수 있다. 즉, 제어부(150)는 상기 사용자의 눈의 위치가 촬영부(120)를 기준으로 오른쪽으로 이동하여 왼쪽을 바라보고 있는 것으로 판단할 수 있으며, 제어부(150)는 이에 대응하여 표시부(110)에 표시되는 이미지 또는 영상에 대한 팬(Pan) 제어를 수행한다.In this case, the control unit 150 may determine that the user has moved to the right relative to the photographing unit 120. That is, the control unit 150 may determine that the position of the user's eyes has moved to the right based on the photographing unit 120 and is looking to the left, and the control unit 150 may display the display unit 110 in response. Perform pan control for the displayed image or video.

도 4(c) 및 도 4(d)를 참조하면, 제2 시점(t2)에서 표시되는 이미지 또는 영상은 제1 시점(t1)에서 표시되는 이미지 또는 영상의 왼쪽 부분을 더 포함하고, 오른쪽 부분은 제1 시점(t1)에서 보다 작은 영역을 포함한다. 즉, 제어부(150)는 실제 사용자의 시선 변화에 대응하여 이전 시점에서 표시되지 않은 영역을 새롭게 표시하고, 이전 시점에서 표시된 영역은 더 이상 표시되지 않도록 이미지 또는 영상 표시를 제어할 수 있다.Referring to FIGS. 4(c) and 4(d), the image or video displayed at the second viewpoint t2 further includes a left portion of the image or video displayed at the first viewpoint t1, and a right portion includes a smaller area than at the first time point t1. That is, the control unit 150 may control the image or video display so that an area that was not displayed at a previous viewpoint is newly displayed in response to a change in the actual user's gaze, and an area displayed at a previous viewpoint is no longer displayed.

도 4는 상기 사용자의 얼굴 영역이 오른쪽으로 이동하는 경우 팬-레프트(Pan-Left) 제어가 수행되는 것을 예로써 도시하며, 이와 반대로 상기 사용자의 얼굴 영역이 왼쪽으로 이동하는 경우에는 제어부(150)는 상기 사용자의 눈의 위치가 촬영부(120)를 기준으로 왼쪽으로 이동하여 오른쪽을 바라보고 있는 것으로 판단하고, 이에 따라 표시부(110) 표시되는 이미지 또는 영상에 대해 팬-라이트(Pan-Right) 제어를 수행할 수 있다.Figure 4 shows as an example that pan-left control is performed when the user's face area moves to the right. Conversely, when the user's face area moves to the left, the control unit 150 It is determined that the position of the user's eyes has moved to the left relative to the capturing unit 120 and is looking to the right, and accordingly, a pan-right function is applied to the image or video displayed on the display unit 110. Control can be performed.

도 5는, 촬영부(120)를 기준으로 사용자가 아래쪽으로 이동하는 경우, 제어부(150)에 의해 Tilt 제어가 수행되는 경우를 예시적으로 나타낸다.FIG. 5 exemplarily shows a case in which tilt control is performed by the control unit 150 when the user moves downward with respect to the photographing unit 120.

도 5(a) 및 도 5(b)는 각각 제1 시점(t1) 및 제2 시점(t2)에서 촬영된 영상으로부터 검출된 상기 사용자의 얼굴 영역을 나타내며, 도 5(c) 및 도 5(d)는 각각 도 5(a) 및 도 5(b)의 얼굴 영역의 기준 좌표 변화에 대응하는 표시부(110)를 통해 표시되는 이미지 또는 영상의 변화를 나타낸다. 여기서, 상기 제1 시점(t1)은 상기 제2 시점(t2)보다 시간적으로 앞서는 것으로 이해할 수 있으며, 도 3 및 도 4에서 예로써 설명한 제1 시점 및 제2 시점과 다른 시점을 의미하는 것으로 이해할 수 있다.Figures 5(a) and 5(b) show the user's face area detected from images captured at the first time point (t1) and the second time point (t2), respectively, and Figures 5(c) and 5( d) represents a change in the image or video displayed through the display unit 110 corresponding to a change in the reference coordinate of the face area in FIGS. 5(a) and 5(b), respectively. Here, the first time point (t1) can be understood as being temporally ahead of the second time point (t2), and can be understood to mean a time point different from the first and second time points described as examples in FIGS. 3 and 4. You can.

도 5(a) 및 도 5(b)를 참조하면, 제2 시점(t2)에서 검출된 상기 사용자의 얼굴 영역의 기준 좌표의 y 좌표는 제1 시점(t1)에서 검출된 상기 사용자의 얼굴 영역의 기준 좌표의 y 좌표보다 아래쪽에 위치하며, 상기 제1 시점(t1)과 상기 제2 시점(t2)에서 기준 좌표의 x 좌표 및 상기 얼굴 영역의 크기는 동일하다. 여기서, 상기 얼굴 영역의 기준 좌표는 도 2를 참조로 하여 설명한 바와 같이, 상기 얼굴 영역에 포함되는 픽셀의 평균 좌표 또는 중간 좌표일 수 있으며, 상기 얼굴 영역 내에 존재한다.Referring to FIGS. 5(a) and 5(b), the y coordinate of the reference coordinate of the user's face area detected at the second time point t2 is the user's face area detected at the first time point t1. is located below the y coordinate of the reference coordinate, and the x coordinate of the reference coordinate and the size of the face area are the same at the first viewpoint (t1) and the second viewpoint (t2). Here, the reference coordinates of the face area may be the average coordinates or intermediate coordinates of pixels included in the face area, as described with reference to FIG. 2, and exist within the face area.

이러한 경우, 제어부(150)는 상기 사용자가 촬영부(120)를 기준으로 아래쪽으로 이동한 것으로 판단할 수 있다. 즉, 제어부(150)는 상기 사용자의 눈의 위치가 촬영부(120)를 기준으로 아래쪽으로 이동하여 위쪽을 바라보고 있는 것으로 판단할 수 있으며, 제어부(150)는 이에 대응하여 표시부(110)에 표시되는 이미지 또는 영상에 대한 틸트(Tilt) 제어를 수행한다.In this case, the control unit 150 may determine that the user has moved downward relative to the photographing unit 120. That is, the control unit 150 may determine that the position of the user's eyes has moved downward relative to the photographing unit 120 and is looking upward, and the control unit 150 may display the display unit 110 in response. Performs tilt control on the displayed image or video.

도 5(c) 및 도 5(d)를 참조하면, 제2 시점(t2)에서 표시되는 이미지 또는 영상은 제1 시점(t1)에서 표시되는 이미지 또는 영상의 위쪽 부분을 더 포함하고, 아래쪽 부분은 제1 시점(t1)에서 보다 작은 영역을 포함한다. 즉, 제어부(150)는 실제 사용자의 시선 변화에 대응하여 이전 시점에서 표시되지 않은 영역을 새롭게 표시하고, 이전 시점에서 표시된 영역은 더 이상 표시되지 않도록 이미지 또는 영상 표시를 제어할 수 있다.Referring to FIGS. 5(c) and 5(d), the image or video displayed at the second viewpoint t2 further includes an upper portion of the image or video displayed at the first viewpoint t1, and a lower portion includes a smaller area than at the first time point t1. That is, the control unit 150 may control the image or video display so that an area that was not displayed at a previous viewpoint is newly displayed in response to a change in the actual user's gaze, and an area displayed at a previous viewpoint is no longer displayed.

도 5는 상기 사용자의 얼굴 영역이 아래쪽으로 이동하는 경우 틸트-업(Tilt-Up) 제어가 수행되는 것을 예로써 도시하며, 이와 반대로 상기 사용자의 얼굴 영역이 위쪽으로 이동하는 경우에는 제어부(150)는 상기 사용자의 눈의 위치가 촬영부(120)를 기준으로 위쪽으로 이동하여 아래쪽을 바라보고 있는 것으로 판단하고, 이에 따라 표시부(110) 표시되는 이미지 또는 영상에 대해 틸트-다운(Tilt-Down) 제어를 수행할 수 있다.Figure 5 shows as an example that tilt-up control is performed when the user's face area moves downward, and on the contrary, when the user's face area moves upward, the control unit 150 It is determined that the position of the user's eyes moves upward based on the capturing unit 120 and is looking downward, and accordingly, tilt-down the image or video displayed on the display unit 110. Control can be performed.

제어부(150)는 연산부(140)에서 산출되는 상기 사용자의 얼굴 영역의 크기와 상기 얼굴 영역의 기준 좌표의 변화에 따라 이미지 및/또는 영상에 대한 PTZ 동작을 제어함으로써, 상기 사용자는 보다 현실감 있는 영상을 감상할 수 있다.The control unit 150 controls the PTZ operation for the image and/or video according to the size of the user's face area calculated by the calculation unit 140 and the change in the reference coordinates of the face area, so that the user can enjoy a more realistic image. You can enjoy.

한편, 앞선 예시에서는 사용자의 시선이 단순히 x-축, y-축 또는 z-축 한 방향으로 이동하는 경우를 예로써 설명하였으나, 이는 설명의 편의를 위한 것에 불과하며, 제어부(150)는 사용자 시선의 이동을 x-y-z 축에 대해 복합적으로 판단할 수 있으며, 이에 대응하여 이미지 및/또는 영상에 대한 PTZ 제어를 수행할 수 있다.Meanwhile, in the previous example, the case where the user's gaze simply moves in one direction of the x-axis, y-axis, or z-axis was explained as an example, but this is only for convenience of explanation, and the control unit 150 The movement of can be complexly judged on the x-y-z axes, and PTZ control for the image and/or video can be performed in response.

또한, 표시부(110)를 통해 표시되는 이미지 및/또는 영상은 제어부(150)에 의해 PTZ 제어될 수 있어야 하므로, 표시부(110)에는 상기 이미지 및/또는 영상의 일부만 표시될 수 있다.Additionally, since the image and/or video displayed through the display unit 110 must be PTZ controlled by the control unit 150, only a portion of the image and/or video may be displayed on the display unit 110.

예를 들어, 상기 이미지 및/또는 영상의 크기가 M×N 인 경우, 표시부(110)를 통해 표시되는 상기 이미지 및/또는 영상은 M×N 보다 작은 m×n 크기로 표시될 수 있다.For example, when the size of the image and/or video is M×N, the image and/or video displayed through the display unit 110 may be displayed in a size m×n smaller than M×N.

도 6은 원격 지에 배치되는 카메라와 연결되는 사용자 단말 장치를 사용하는 사용자를 예시적으로 나타내는 도면이다.FIG. 6 is a diagram illustrating a user using a user terminal device connected to a camera located in a remote location.

도 6을 참조하면, 사용자 단말 장치(310)와 카메라(210)는 본 발명의 다른 실시예에 따른 표시 제어 시스템(500)에 포함된다. 사용자 단말 장치(310)와 카메라(210)는 유?무선 통신을 이용하여 서로 데이터를 주고 받을 수 있으며, 카메라(210)에서 촬영된 이미지 및/또는 영상은 사용자 단말 장치(310)로 전송될 수 있으며, 사용자 단말 장치(310)는 카메라(210)의 동작을 제어하기 위한 제어 신호를 전송할 수 있다.Referring to FIG. 6, the user terminal device 310 and the camera 210 are included in the display control system 500 according to another embodiment of the present invention. The user terminal device 310 and the camera 210 can exchange data with each other using wired or wireless communication, and images and/or videos captured by the camera 210 can be transmitted to the user terminal device 310. The user terminal device 310 may transmit a control signal to control the operation of the camera 210.

한편, 사용자 단말 장치(310)는 카메라(210)로부터 전송되는 이미지 및/또는 영상을 표시하기 위한 표시 화면과 사용자 및 주변 영상을 촬영할 수 있는 전면 카메라를 포함할 수 있다.Meanwhile, the user terminal device 310 may include a display screen for displaying images and/or videos transmitted from the camera 210 and a front camera capable of capturing user and surrounding images.

도 7은 본 발명의 다른 실시예에 따른 표시 제어 시스템의 구성을 개략적으로 나타내는 도면이다. 도 7에 도시되는 표시 제어 시스템(500)은 도 6을 참조로 하여 설명한 사용자 단말 장치(310)와 카메라(210)를 포함한다.Figure 7 is a diagram schematically showing the configuration of a display control system according to another embodiment of the present invention. The display control system 500 shown in FIG. 7 includes the user terminal device 310 and the camera 210 described with reference to FIG. 6 .

보다 구체적으로, 본 발명의 다른 실시예에 따른 표시 제어 시스템(500)은, 영상을 촬영하는 카메라(210) 및 카메라(210)와 유선 또는 무선으로 연결되어 카메라(210)로부터 영상을 수신하는 사용자 단말 장치(310)를 포함한다.More specifically, the display control system 500 according to another embodiment of the present invention includes a camera 210 that captures an image and a user that is connected to the camera 210 by wire or wirelessly and receives the image from the camera 210. Includes a terminal device 310.

그리고, 사용자 단말 장치(310)는 표시부(311), 촬영부(312), 얼굴 영역 검출부(313), 연산부(314) 및 제어부(315)를 포함한다.Additionally, the user terminal device 310 includes a display unit 311, a photographing unit 312, a face area detection unit 313, a calculation unit 314, and a control unit 315.

표시부(311)는 카메라(210)로부터 수신되는 영상을 표시한다. 여기서, 카메라(210)에서 촬영되어 수신되는 영상은 정지 영상을 포함하는 개념으로 이해할 수 있다. 또한, 카메라(210)에서 촬영되는 영상은 실시간으로 사용자 단말 장치(310)로 수신되며, 수신된 영상은 표시부(311)를 통하여 실시간으로 표시될 수 있다.The display unit 311 displays the image received from the camera 210. Here, the image captured and received by the camera 210 can be understood as including a still image. Additionally, the image captured by the camera 210 is received by the user terminal device 310 in real time, and the received image can be displayed in real time through the display unit 311.

촬영부(312)는 사용자 단말 장치(310)를 사용하는 사용자 및 상기 사용자 주변 영상을 촬영한다. 사용자 단말 장치(310)가 도 6에 도시되는 바와 같은 스마트폰, PDA 등을 포함하는 경우, 촬영부(312)는 상기 스마트폰, PDA 등에 포함되는 전면 카메라일 수 있다.The photographing unit 312 captures images of the user using the user terminal device 310 and images surrounding the user. When the user terminal device 310 includes a smartphone, PDA, etc. as shown in FIG. 6, the photographing unit 312 may be a front camera included in the smartphone, PDA, etc.

또는, 사용자 단말 장치(310)가 데스크 탑 또는 노트북을 포함하는 경우, 촬영부(312)는 데스크 탑에 연결되어 상기 데스크 탑을 사용하는 사용자를 촬영할 수 있는 웹 카메라(Web Camera)일 수 있으며, 또는 상기 노트북의 모니터에 구비되는 카메라일 수 있다.Alternatively, when the user terminal device 310 includes a desktop or a laptop, the photographing unit 312 may be a web camera that is connected to the desktop and can capture a user using the desktop. Alternatively, it may be a camera provided on the monitor of the laptop.

얼굴 영역 검출부(313)는 상기 사용자의 얼굴 영역을 검출한다. 촬영부(312)에서 촬영되는 영상은 얼굴 영역 검출부(313)로 제공되며, 얼굴 영역 검출부(313)는 촬영부(312)에서 촬영되는 영상에서 상기 사용자의 얼굴 영역만을 검출한다.The face area detection unit 313 detects the user's face area. The image captured by the capturing unit 312 is provided to the face area detection unit 313, and the face area detecting unit 313 detects only the user's face area from the image captured by the capturing unit 312.

영상에서 사람의 얼굴 영역을 검출하는 알고리즘은 다양하게 존재하며, 본 발명에 따른 표시 제어 시스템(500)은 특정한 얼굴 영역 검출 알고리즘에 의해 제한되어 해석되지 않는다.There are various algorithms for detecting a human face area in an image, and the display control system 500 according to the present invention is not limited and interpreted by a specific face area detection algorithm.

얼굴 영역 검출부(313)에서 검출되는 상기 사용자의 얼굴 영역은 이마를 제외한 눈, 코, 입, 턱을 포함하는 영역일 수 있으며, 또는 상기 사용자의 이마 영역까지 포함할 수 있다. 또는, 상기 사용자의 목까지 포함하는 영역이 얼굴 영역으로 검출될 수도 있다.The user's face area detected by the face area detection unit 313 may include the eyes, nose, mouth, and chin excluding the forehead, or may even include the user's forehead area. Alternatively, the area including the user's neck may be detected as the face area.

다만, 얼굴 영역 검출부(313)에서 검출되는 상기 사용자의 얼굴 영역은 시간에 따라 항상 동일한 요소를 포함하는 것으로 이해할 수 있다. 상기 얼굴 영역이 상기 사용자의 눈, 코, 입, 턱 및 이마를 포함하도록 설정된 경우에는 시간의 흐름에도 불구하고, 얼굴 영역 검출부(313)에서 검출되는 상기 사용자의 얼굴 영역은 항상 눈, 코, 입, 턱 및 이마를 포함한다.However, it can be understood that the user's face area detected by the face area detector 313 always includes the same elements over time. When the face area is set to include the user's eyes, nose, mouth, chin, and forehead, despite the passage of time, the user's face area detected by the face area detector 313 always includes the eyes, nose, and mouth. , chin and forehead.

연산부(314)는 상기 얼굴 영역의 크기 및 기준 좌표를 산출한다. 촬영부(312)에서 촬영되는 영상은 m×n 개의 픽셀(pixel)로 이루어질 수 있으며, 상기 얼굴 영역의 크기는 상기 얼굴 영역에 해당하는 픽셀의 개수를 이용하여 산출될 수 있다.The calculation unit 314 calculates the size and reference coordinates of the face area. The image captured by the photographing unit 312 may consist of m×n pixels, and the size of the face area may be calculated using the number of pixels corresponding to the face area.

상기 기준 좌표는 상기 얼굴 영역에 포함되는 모든 픽셀의 평균 좌표 값에 대응할 수 있으며, 또는 상기 모든 픽셀의 중간 좌표 값에 대응할 수도 있다. 상기 좌표 값 또는 상기 중간 좌표 값은 상기 얼굴 영역에 포함되는 픽셀들의 x 좌표 값, y 좌표 값을 이용하여 계산될 수 있다.The reference coordinate may correspond to the average coordinate value of all pixels included in the face area, or may correspond to the intermediate coordinate value of all pixels. The coordinate value or the intermediate coordinate value may be calculated using the x-coordinate value and y-coordinate value of pixels included in the face area.

제어부(315)는 상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 카메라(210) 대한 PTZ 제어를 수행한다.The control unit 315 performs PTZ control on the camera 210 in response to changes in the size of the face area and the reference coordinates over time.

촬영부(312)에서 촬영되는 영상은 초당 정해진 개수의 프레임(frame)을 포함하며, 각각의 프레임은 m×n 개의 픽셀로 이루어질 수 있다. 얼굴 영역 검출부(313)는 상기 프레임 각각으로부터 상기 사용자의 얼굴 영역을 검출하고, 연산부(314)는 얼굴 영역 검출부(313)에서 검출되는 상기 사용자의 얼굴 영역으로부터 상기 얼굴 영역의 크기와 기준 좌표를 산출한다.The image captured by the capturing unit 312 includes a fixed number of frames per second, and each frame may be composed of m×n pixels. The face area detection unit 313 detects the user's face area from each of the frames, and the calculation unit 314 calculates the size and reference coordinates of the face area from the user's face area detected by the face area detection unit 313. do.

상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화는 프레임의 변화에 따른 변화로 이해할 수 있으며, 제어부(315)는 이러한 변화에 대응하여 카메라(210)에 대한 PTZ 제어를 수행한다.Changes in the size of the face area and the reference coordinates over time can be understood as changes due to changes in the frame, and the control unit 315 performs PTZ control on the camera 210 in response to these changes.

즉, 상기 표시 제어 시스템(500)에 포함되는 카메라(210)는 팬(Pan)-틸트(Tilt)-줌(Zoom) 동작 가능하며, 제어부(315)는 사용자 단말 장치(310)와 카메라(210)를 연결하는 통신 수단을 이용하여, 카메라(210)에 대한 PTZ 제어를 수행하는 제어 신호를 전송할 수 있으며, 카메라(210)는 제어부(315)에서 전송되는 상기 제어 신호에 대응하여 PTZ 동작하게 된다.That is, the camera 210 included in the display control system 500 is capable of pan-tilt-zoom operations, and the control unit 315 controls the user terminal device 310 and the camera 210. ) can be used to transmit a control signal for PTZ control of the camera 210, and the camera 210 operates PTZ in response to the control signal transmitted from the control unit 315. .

따라서, 사용자 단말 장치(310)는 카메라(210)의 동작을 제어할 수 있는 상기 제어 신호를 생성하여 출력하는 소프트웨어를 포함할 수 있다.Accordingly, the user terminal device 310 may include software that generates and outputs the control signal capable of controlling the operation of the camera 210.

카메라(210)에 대한 PTZ 제어는 도 3 내지 도 5를 참조로 하여 설명한 이미지 및/또는 영상에 대한 PTZ 제어와 실질적으로 동일한 것으로 이해할 수 있다.PTZ control for the camera 210 can be understood as being substantially the same as PTZ control for the image and/or video described with reference to FIGS. 3 to 5.

예를 들어, 제1 시점(t1) 및 제2 시점(t2)에서의 상기 사용자의 얼굴 영역의 크기가 변화하는 경우, 제어부(315)는 카메라(210)를 줌-인(Zoom-In) 또는 줌-아웃(Zoom-Out) 동작하도록 제어할 수 있다.For example, when the size of the user's face area changes at the first viewpoint (t1) and the second viewpoint (t2), the controller 315 zooms in or zooms the camera 210. You can control zoom-out operation.

상기 사용자의 얼굴 영역의 크기가 시간의 흐름에 따라 커지는 것으로 판단되면, 제어부(315)는 상기 사용자의 시선이 표시부(311)를 통해 표시되는 이미지 및/또는 영상에 가까워지는 것으로 판단하고, 이에 대응하여 카메라(210)로 하여금 줌-인(Zoom-In) 동작하도록 제어할 수 있다.If it is determined that the size of the user's face area increases over time, the control unit 315 determines that the user's gaze is approaching the image and/or video displayed through the display unit 311, and responds accordingly. Thus, the camera 210 can be controlled to perform a zoom-in operation.

또는, 제1 시점(t1) 및 제2 시점(t2)에서의 상기 기준 좌표의 x 좌표가 변화하는 경우, 제어부(315)는 카메라(210)를 팬-레프트(Pan-Left) 또는 팬-라이트(Pan-Right) 동작하도록 제어할 수 있다.Alternatively, when the x-coordinate of the reference coordinate changes at the first time point (t1) and the second time point (t2), the control unit 315 moves the camera 210 to Pan-Left or Pan-Light. (Pan-Right) operation can be controlled.

상기 사용자의 얼굴 영역의 기준 좌표의 x 좌표가 시간의 흐름에 따라 오른쪽으로 이동하는 경우, 제어부(315)는 상기 사용자의 시선이 왼쪽을 향하는 것으로 판단하고, 이에 대응하여 카메라(210)로 하여금 팬-레프트(Pan-Left) 동작하도록 제어할 수 있다.When the x-coordinate of the reference coordinate of the user's face area moves to the right over time, the control unit 315 determines that the user's gaze is directed to the left and, in response, causes the camera 210 to pan -Can be controlled to operate left (Pan-Left).

이에 따라, 카메라(210)는 이전 시점의 영상보다 더 왼쪽의 영상을 촬영하고, 촬영된 영상은 실시간으로 사용자 단말 장치(310)로 전송되어 표시부(311)를 통해 상기 사용자에게 표시된다.Accordingly, the camera 210 captures an image further to the left than the image from the previous viewpoint, and the captured image is transmitted to the user terminal device 310 in real time and displayed to the user through the display unit 311.

또는, 제1 시점(t1) 및 제2 시점(t2)에서의 상기 기준 좌표의 y 좌표가 변화하는 경우, 제어부(315)는 카메라(210)를 틸트-업(Tilt-Up) 또는 틸트-다운(Tilt-Down) 동작하도록 제어할 수 있다.Alternatively, when the y-coordinate of the reference coordinate changes at the first time point (t1) and the second time point (t2), the control unit 315 tilts the camera 210 up or down. (Tilt-Down) operation can be controlled.

상기 사용자의 얼굴 영역의 기준 좌표의 y 좌표가 시간의 흐름에 따라 위쪽으로 이동하는 경우, 제어부(315)는 상기 사용자의 시선이 아래쪽을 향하는 것으로 판단하고, 이에 대응하여 카메라(210)로 하여금 틸트-다운(Tilt-Down) 동작하도록 제어할 수 있다.When the y-coordinate of the reference coordinate of the user's face area moves upward over time, the control unit 315 determines that the user's gaze is directed downward, and causes the camera 210 to tilt in response. -Can be controlled to operate in tilt-down mode.

이에 따라, 카메라(210)는 이전 시점의 영상보다 더 아래쪽의 영상을 촬영하고, 촬영된 영상은 실시간으로 사용자 단말 장치(310)로 전송되어 표시부(311)를 통해 상기 사용자에게 표시된다.Accordingly, the camera 210 captures an image lower than the image at the previous viewpoint, and the captured image is transmitted to the user terminal device 310 in real time and displayed to the user through the display unit 311.

제어부(315)는 연산부(314)에서 산출되는 상기 사용자의 얼굴 영역의 크기와 상기 얼굴 영역의 기준 좌표의 변화에 따라 카메라(210)의 PTZ 동작을 제어하고, 카메라(210)가 촬영하는 영상은 실시간으로 표시부(311)를 통해 표시됨으로써, 상기 사용자는 보다 현실감 있는 영상을 감상할 수 있다.The control unit 315 controls the PTZ operation of the camera 210 according to the size of the user's face area calculated by the calculation unit 314 and the change in the reference coordinates of the face area, and the image captured by the camera 210 is By being displayed through the display unit 311 in real time, the user can enjoy a more realistic image.

한편, 앞선 예시에서는 사용자의 시선이 단순히 x-축, y-축 또는 z-축 한 방향으로 이동하는 경우를 예로써 설명하였으나, 이는 설명의 편의를 위한 것에 불과하며, 제어부(315)는 사용자 시선의 이동을 x-y-z 축에 대해 복합적으로 판단할 수 있으며, 이에 대응하여 카메라(210)에 대한 PTZ 제어를 수행할 수 있다.Meanwhile, in the previous example, the case where the user's gaze simply moves in one direction of the x-axis, y-axis, or z-axis was explained as an example, but this is only for convenience of explanation, and the control unit 315 is the user's gaze. The movement of can be complexly determined with respect to the x-y-z axes, and PTZ control of the camera 210 can be performed correspondingly.

도 8은 본 발명의 일 실시예에 따른 표시 제어 방법의 흐름을 개략적으로 나타내는 순서도이다.Figure 8 is a flowchart schematically showing the flow of a display control method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 표시 제어 방법은, 이미지 또는 영상을 표시하는 표시부를 포함하는 사용자 단말 장치를 이용하는 영상 표시 제어 방법으로서, 사용자 및 주변 영상 촬영 단계(S110), 얼굴 영역 검출 단계(S120), 얼굴 영역 크기 및 기준 좌표 산출 단계(S130) 및 PTZ 제어 단계(S140)를 포함한다.Referring to FIG. 8, the display control method according to an embodiment of the present invention is an image display control method using a user terminal device including a display unit that displays an image or video, and includes a user and surrounding image capturing step (S110), It includes a face area detection step (S120), a face area size and reference coordinate calculation step (S130), and a PTZ control step (S140).

사용자 및 주변 영상 촬영 단계(S110)에서는 상기 사용자 단말 장치에 포함되는 카메라를 이용하여 상기 사용자 단말 장치를 사용하는 상기 사용자 및 상기 사용자 주변의 영상을 촬영한다. 이때, 상기 카메라는 상기 표시부와 함께 상기 사용자 단말 장치의 전면에 포함되는 것으로 이해할 수 있다.In the user and surrounding image capturing step (S110), images of the user using the user terminal device and images of the user's surroundings are captured using a camera included in the user terminal device. At this time, the camera can be understood as being included in the front of the user terminal device along with the display unit.

얼굴 영역 검출 단계(S120)에서는 상기 카메라를 이용하여 획득되는 상기 사용자 및 상기 사용자 주변의 영상으로부터 상기 사용자의 얼굴 영역을 검출한다. 도 2 및 도 7을 참조로 하여 설명한 바와 같이, 영상에서 사람의 얼굴 영역을 검출하는 알고리즘은 다양하게 존재하며, 본 발명에 따른 표시 제어 방법은 특정한 얼굴 영역 검출 알고리즘에 의해 제한되어 해석되지 않는다.In the face area detection step (S120), the user's face area is detected from images of the user and surroundings obtained using the camera. As explained with reference to FIGS. 2 and 7, there are various algorithms for detecting a human face area in an image, and the display control method according to the present invention is not limited and interpreted by a specific face area detection algorithm.

얼굴 영역 검출 단계(S120)에서 검출되는 상기 사용자의 얼굴 영역은 이마를 제외한 눈, 코, 입, 턱을 포함하는 영역일 수 있으며, 또는 상기 사용자의 이마 영역까지 포함할 수 있다. 또는, 상기 사용자의 목까지 포함하는 영역이 얼굴 영역으로 검출될 수도 있다.The user's face area detected in the face area detection step (S120) may include the eyes, nose, mouth, and chin excluding the forehead, or may even include the user's forehead area. Alternatively, the area including the user's neck may be detected as the face area.

다만, 얼굴 영역 검출 단계(S120)에서 검출되는 상기 사용자의 얼굴 영역은 시간에 따라 항상 동일한 요소를 포함하는 것으로 이해할 수 있다. 상기 얼굴 영역이 상기 사용자의 눈, 코, 입, 턱 및 이마를 포함하도록 설정된 경우에는 시간의 흐름에도 불구하고, 얼굴 영역 검출 단계(S120)에서 검출되는 상기 사용자의 얼굴 영역은 항상 눈, 코, 입, 턱 및 이마를 포함한다.However, it can be understood that the user's face area detected in the face area detection step (S120) always includes the same elements over time. When the face area is set to include the user's eyes, nose, mouth, chin, and forehead, despite the passage of time, the user's face area detected in the face area detection step (S120) always includes the eyes, nose, and forehead. Includes the mouth, chin, and forehead.

얼굴 영역 크기 및 기준 좌표 산출 단계(S130)에서는 상기 얼굴 영역의 크기 및 상기 얼굴 영역의 기준 좌표를 산출한다. 상기 카메라를 이용하여 촬영되는 영상은 m×n 개의 픽셀(pixel)로 이루어질 수 있으며, 상기 얼굴 영역의 크기는 상기 얼굴 영역에 해당하는 픽셀의 개수를 이용하여 산출될 수 있다.In the face area size and reference coordinate calculation step (S130), the size of the face area and the reference coordinates of the face area are calculated. An image captured using the camera may consist of m×n pixels, and the size of the face area may be calculated using the number of pixels corresponding to the face area.

상기 기준 좌표는 상기 얼굴 영역에 포함되는 모든 픽셀의 평균 좌표 값에 대응할 수 있으며, 또는 상기 모든 픽셀의 중간 좌표 값에 대응할 수도 있다. 상기 좌표 값 또는 상기 중간 좌표 값은 상기 얼굴 영역에 포함되는 픽셀들의 x 좌표 값, y 좌표 값을 이용하여 계산될 수 있다.The reference coordinate may correspond to the average coordinate value of all pixels included in the face area, or may correspond to the intermediate coordinate value of all pixels. The coordinate value or the intermediate coordinate value may be calculated using the x-coordinate value and y-coordinate value of pixels included in the face area.

PTZ 제어 단계(S140)에서는 상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 표시부에 표시되는 이미지 또는 영상에 대한 PTZ 제어를 수행한다.In the PTZ control step (S140), PTZ control is performed on the image or video displayed on the display unit in response to changes over time in the size of the face area and the reference coordinates.

상기 카메라에서 촬영되는 영상은 초당 정해진 개수의 프레임(frame)을 포함하며, 각각의 프레임은 m×n 개의 픽셀로 이루어질 수 있다. 얼굴 영역 검출 단계(S120)는 상기 프레임 각각으로부터 상기 사용자의 얼굴 영역을 검출하고, 얼굴 영역 크기 및 기준 좌표 산출 단계(S130)에서는 얼굴 영역 검출 단계(S120)에서 검출되는 상기 사용자의 얼굴 영역으로부터 상기 얼굴 영역의 크기와 기준 좌표를 산출한다.The image captured by the camera includes a fixed number of frames per second, and each frame may consist of m×n pixels. In the face area detection step (S120), the user's face area is detected from each of the frames, and in the face area size and reference coordinate calculation step (S130), the user's face area detected in the face area detection step (S120) is detected. Calculate the size and reference coordinates of the face area.

상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화는 프레임의 변화에 따른 변화로 이해할 수 있으며, PTZ 제어 단계(S140)는 이러한 변화에 대응하여 상기 표시부를 통해 표시되는 이미지 또는 영상에 대한 PTZ 제어를 수행한다.Changes in the size of the face area and the reference coordinates over time can be understood as changes due to changes in the frame, and the PTZ control step (S140) is performed to respond to these changes by performing a PTZ control for the image or video displayed through the display unit. perform control.

한편, PTZ 제어 단계(S140)에서는 시간의 흐름에 따른 상기 사용자의 얼굴 크기의 변화 또는 상기 사용자의 시선의 변화에 대응하여 상기 표시부를 통해 표시되는 이미지 및/또는 영상에 대한 PTZ 제어를 수행하며, 구체적으로는 도 3 내지 도 5를 참조로 하여 설명한 바와 같다.Meanwhile, in the PTZ control step (S140), PTZ control is performed on the image and/or video displayed through the display unit in response to a change in the size of the user's face or a change in the user's gaze over time, Specifically, it is as described with reference to FIGS. 3 to 5.

예를 들어, 제1 시점(t1) 및 제2 시점(t2)에서의 상기 사용자의 얼굴 영역의 크기가 변화하는 경우, PTZ 제어 단계(S140)에서는 상기 표시부를 통해 표시되는 이미지 및/또는 영상을 줌-인(Zoom-In) 또는 줌-아웃(Zoom-Out) 제어할 수 있다.For example, when the size of the user's face area changes at the first viewpoint (t1) and the second viewpoint (t2), the image and/or video displayed through the display unit is changed in the PTZ control step (S140). You can control zoom-in or zoom-out.

상기 사용자의 얼굴 영역의 크기가 시간의 흐름에 따라 커지는 것으로 판단되면, PTZ 제어 단계(S140)에서는 상기 사용자의 시선이 상기 표시부를 통해 표시되는 이미지 및/또는 영상에 가까워지는 것으로 판단하고, 상기 이미지 및/또는 영상을 줌-인(Zoom-In) 제어할 수 있다.If it is determined that the size of the user's face area increases over time, in the PTZ control step (S140), it is determined that the user's gaze is approaching the image and/or video displayed through the display unit, and the image And/or the video can be controlled to zoom in.

또는, 제1 시점(t1) 및 제2 시점(t2)에서의 상기 기준 좌표의 x 좌표가 변화하는 경우, PTZ 제어 단계(S140)에서는 상기 표시부를 통해 표시되는 이미지 및/또는 영상을 팬-레프트(Pan-Left) 또는 팬-라이트(Pan-Right) 제어할 수 있다.Alternatively, when the x-coordinate of the reference coordinate changes at the first time point (t1) and the second time point (t2), the image and/or video displayed through the display unit is pan-left in the PTZ control step (S140). (Pan-Left) or Pan-Right (Pan-Right) control.

상기 사용자의 얼굴 영역의 기준 좌표의 x 좌표가 시간의 흐름에 따라 오른쪽으로 이동하는 경우, PTZ 제어 단계(S140)에서는 상기 사용자의 시선이 왼쪽을 향하는 것으로 판단하고, 이에 대응하여 상기 이미지 및/또는 영상을 팬-레프트(Pan-Left) 제어할 수 있다.If the x-coordinate of the reference coordinate of the user's face area moves to the right with the passage of time, in the PTZ control step (S140), it is determined that the user's gaze is directed to the left, and the image and/or You can control the video pan-left.

또는, 제1 시점(t1) 및 제2 시점(t2)에서의 상기 기준 좌표의 y 좌표가 변화하는 경우, PTZ 제어 단계(S140)에서는 상기 표시부를 통해 표시되는 이미지 및/또는 영상을 틸트-업(Tilt-Up) 또는 틸트-다운(Tilt-Down) 제어할 수 있다.Alternatively, when the y coordinate of the reference coordinate changes at the first time point (t1) and the second time point (t2), the image and/or video displayed through the display unit is tilted up in the PTZ control step (S140). (Tilt-Up) or Tilt-Down control.

상기 사용자의 얼굴 영역의 기준 좌표의 y 좌표가 시간의 흐름에 따라 위쪽으로 이동하는 경우, PTZ 제어 단계(S140)에서는 상기 사용자의 시선이 아래쪽을 향하는 것으로 판단하고, 이에 대응하여 상기 이미지 및/또는 영상을 틸트-다운(Tilt-Down) 제어할 수 있다.When the y-coordinate of the reference coordinate of the user's face area moves upward with the passage of time, in the PTZ control step (S140), it is determined that the user's gaze is directed downward, and in response to this, the image and/or You can control the video tilt-down.

PTZ 제어 단계(S140)에서는 얼굴 영역 크기 및 기준 좌표 산출 단계(S130)에서 산출되는 상기 사용자의 얼굴 영역의 크기와 상기 얼굴 영역의 기준 좌표의 변화에 따라 상기 표시부를 통해 표시되는 이미지 및/또는 영상에 대한 PTZ 동작을 제어함으로써, 상기 사용자는 보다 현실감 있는 영상을 감상할 수 있다.In the PTZ control step (S140), the image and/or video displayed through the display unit according to the change in the size of the user's face area and the reference coordinates of the face area calculated in the face area size and reference coordinate calculation step (S130). By controlling the PTZ operation for , the user can enjoy a more realistic video.

한편, 앞선 예시에서는 사용자의 시선이 단순히 x-축, y-축 또는 z-축 한 방향으로 이동하는 경우를 예로써 설명하였으나, 이는 설명의 편의를 위한 것에 불과하며, PTZ 제어 단계(S140)에서는 사용자 시선의 이동을 x-y-z 축에 대해 복합적으로 판단할 수 있으며, 이에 대응하여 사용자가 감상하는 이미지 및/또는 영상에 대한 PTZ 제어를 수행할 수 있다.Meanwhile, in the previous example, the case where the user's gaze simply moves in one direction of the x-axis, y-axis, or z-axis was explained as an example, but this is only for convenience of explanation, and in the PTZ control step (S140) The movement of the user's gaze can be complexly determined with respect to the x-y-z axes, and PTZ control can be performed for the image and/or video the user is viewing in response.

한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the present invention can be implemented as computer-readable code on a computer-readable recording medium. Computer-readable recording media include all types of recording devices that store data that can be read by a computer system.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices, and can also be implemented in the form of a carrier wave (e.g., transmission via the Internet). It includes

또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Additionally, the computer-readable recording medium can be distributed across computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers in the technical field to which the present invention pertains.

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예를 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한 해당 기술 분야의 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터(factor)에 따라 구성될 수 있음을 알 수 있다.Unless there is an explicit order or statement to the contrary regarding the steps constituting the method according to the invention, the steps may be performed in any suitable order. The present invention is not necessarily limited by the order of description of the above steps. The use of any examples or illustrative terms (e.g., etc.) in the present invention is merely to describe the present invention in detail, and unless limited by the claims, the scope of the present invention is limited by the examples or illustrative terms. It is not limited. In addition, those skilled in the art will know that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended patent claims or their equivalents.

지금까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been examined focusing on its preferred embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

100, 500: 표시 제어 시스템 110, 311: 표시부
120, 312: 촬영부 130, 313: 얼굴 영역 검출부
140, 314: 연산부 150, 315: 제어부
210: 카메라 310: 사용자 단말 장치
100, 500: display control system 110, 311: display unit
120, 312: Capturing unit 130, 313: Face area detection unit
140, 314: calculation unit 150, 315: control unit
210: Camera 310: User terminal device

Claims (13)

이미지 또는 영상을 표시하는 표시부;
사용자 및 상기 사용자 주변을 포함하는 영상을 촬영하는 촬영부;
상기 영상으로부터 상기 사용자의 얼굴 영역을 검출하는 얼굴 영역 검출부;
상기 얼굴 영역의 크기 및 상기 얼굴 영역에 포함된 픽셀들의 평균 좌표 또는 중간 좌표인 기준 좌표를 산출하는 연산부; 및
상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 촬영부에 대한 PTZ 제어를 수행하는 제어부;
를 포함하고,
상기 연산부는, 상기 촬영부에 의해 제1 시점에서 촬영된 제1 영상으로부터 제1 얼굴 영역의 크기 및 제1 기준 좌표를 산출하고, 상기 촬영부에 의해 제2 시점에서 촬영된 제2 영상으로부터 제2 얼굴 영역의 크기 및 제2 기준 좌표를 산출하고,
상기 제어부는, 상기 제1 얼굴 영역의 크기와 상기 제2 얼굴 영역의 크기의 변화 및 상기 제1 기준 좌표와 상기 제2 기준 좌표의 변화에 따라 상기 촬영부에 대한 PTZ 제어를 수행하는, 표시 제어 시스템.
A display unit that displays an image or video;
a photographing unit that captures images including the user and the surroundings of the user;
a face area detection unit that detects the user's face area from the image;
a calculation unit that calculates the size of the face area and reference coordinates, which are average coordinates or intermediate coordinates of pixels included in the face area; and
a control unit that performs PTZ control on the photographing unit in response to changes over time in the size of the face area and the reference coordinates;
Including,
The calculation unit calculates the size and first reference coordinates of the first face area from the first image captured at the first viewpoint by the photographing unit, and calculates the size and first reference coordinates from the second image photographed at the second viewpoint by the photographing unit. 2 Calculate the size and second reference coordinates of the face area,
The control unit performs PTZ control on the photographing unit according to changes in the size of the first face area and the size of the second face area and changes in the first and second reference coordinates. system.
제1항에 있어서,
상기 제어부는 상기 제1 얼굴 영역의 크기로부터 상기 제2 얼굴 영역의 크기가 변화하는 경우, 줌-인 (Zoom-In) 또는 줌-아웃 (Zoom-Out) 제어를 수행하는 표시 제어 시스템.
According to paragraph 1,
The display control system wherein the controller performs zoom-in or zoom-out control when the size of the second face area changes from the size of the first face area.
제1항에 있어서,
상기 제어부는 상기 제1 기준 좌표의 x 좌표로부터 상기 제2 기준 좌표의 x 좌표가 변화하는 경우, 팬 (Pan) 제어를 수행하는 표시 제어 시스템.
According to paragraph 1,
The control unit is a display control system that performs pan control when the x-coordinate of the second reference coordinate changes from the x-coordinate of the first reference coordinate.
제1항에 있어서,
상기 제어부는 상기 제1 기준 좌표의 y 좌표로부터 상기 제2 기준 좌표의 y 좌표가 변화하는 경우, 틸트 (Tilt) 제어를 수행하는 표시 제어 시스템.
According to paragraph 1,
The control unit performs tilt control when the y-coordinate of the second reference coordinate changes from the y-coordinate of the first reference coordinate.
영상을 촬영하는 카메라; 및
상기 카메라와 유선 또는 무선으로 연결되어 상기 카메라로부터 영상을 수신하는 사용자 단말 장치;
를 포함하는 영상 표시 제어 시스템으로서, 상기 사용자 단말 장치는,
상기 카메라로부터 수신되는 영상을 표시하는 표시부;
사용자 및 상기 사용자 주변을 포함하는 영상을 촬영하는 촬영부;
상기 영상으로부터 상기 사용자의 얼굴 영역을 검출하는 얼굴 영역 검출부;
상기 얼굴 영역의 크기 및 상기 얼굴 영역에 포함된 픽셀들의 평균 좌표 또는 중간 좌표인 기준 좌표를 산출하는 연산부; 및
상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 카메라에 대한 PTZ 제어를 수행하는 제어부;
를 포함하고,
상기 연산부는, 상기 촬영부에 의해 제1 시점에서 촬영된 제1 영상으로부터 제1 얼굴 영역의 크기 및 제1 기준 좌표를 산출하고, 상기 촬영부에 의해 제2 시점에서 촬영된 제2 영상으로부터 제2 얼굴 영역의 크기 및 제2 기준 좌표를 산출하고,
상기 제어부는, 상기 제1 얼굴 영역의 크기와 상기 제2 얼굴 영역의 크기의 변화 및 상기 제1 기준 좌표와 상기 제2 기준 좌표의 변화에 따라 상기 촬영부에 대한 PTZ 제어를 수행하는, 표시 제어 시스템.
A camera that takes video; and
a user terminal device connected to the camera by wire or wirelessly to receive images from the camera;
A video display control system including, wherein the user terminal device includes,
a display unit that displays images received from the camera;
a photographing unit that captures images including the user and the surroundings of the user;
a face area detection unit that detects the user's face area from the image;
a calculation unit that calculates the size of the face area and reference coordinates, which are average coordinates or intermediate coordinates of pixels included in the face area; and
a control unit that performs PTZ control on the camera in response to changes over time in the size of the face area and the reference coordinates;
Including,
The calculation unit calculates the size and first reference coordinates of the first face area from the first image captured at the first viewpoint by the photographing unit, and calculates the size and first reference coordinates from the second image photographed at the second viewpoint by the photographing unit. 2 Calculate the size and second reference coordinates of the face area,
The control unit performs PTZ control on the photographing unit according to a change in the size of the first face area and the size of the second face area and a change in the first reference coordinate and the second reference coordinate. system.
◈청구항 6은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 6 was abandoned upon payment of the setup registration fee.◈ 제5항에 있어서,
상기 제어부는 상기 제1 얼굴 영역의 크기로부터 상기 제2 얼굴 영역의 크기가 변화하는 경우, 줌-인 (Zoom-In) 또는 줌-아웃 (Zoom-Out) 제어를 수행하는 표시 제어 시스템.
According to clause 5,
The display control system wherein the controller performs zoom-in or zoom-out control when the size of the second face area changes from the size of the first face area.
◈청구항 7은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 7 was abandoned upon payment of the setup registration fee.◈ 제5항에 있어서,
상기 제어부는 상기 제1 기준 좌표의 x 좌표로부터 상기 제2 기준 좌표의 x 좌표가 변화하는 경우, 팬 (Pan) 제어를 수행하는 표시 제어 시스템.
According to clause 5,
The control unit is a display control system that performs pan control when the x-coordinate of the second reference coordinate changes from the x-coordinate of the first reference coordinate.
◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 8 was abandoned upon payment of the setup registration fee.◈ 제5항에 있어서,
상기 제어부는 상기 제1 기준 좌표의 y 좌표로부터 상기 제2 기준 좌표의 y 좌표가 변화하는 경우, 틸트 (Tilt) 제어를 수행하는 표시 제어 시스템.
According to clause 5,
The control unit performs tilt control when the y-coordinate of the second reference coordinate changes from the y-coordinate of the first reference coordinate.
이미지 또는 영상을 표시하는 표시부를 포함하는 사용자 단말 장치를 이용하는 영상 표시 제어 방법으로서,
사용자 및 상기 사용자 주변을 포함하는 영상을 촬영하는 단계;
상기 영상으로부터 상기 사용자의 얼굴 영역을 검출하는 단계;
상기 얼굴 영역의 크기 및 상기 얼굴 영역에 포함된 픽셀들의 평균 좌표 또는 중간 좌표인 기준 좌표를 산출하는 단계; 및
상기 얼굴 영역의 크기 및 상기 기준 좌표의 시간에 따른 변화에 대응하여, 상기 영상을 촬영한 촬영부에 대한 PTZ 제어를 수행하는 단계;
를 포함하고,
상기 얼굴 영역의 크기 및 기준 좌표 산출 단계는,
상기 촬영부에 의해 제1 시점에서 촬영된 제1 영상으로부터 제1 얼굴 영역의 크기 및 제1 기준 좌표를 산출하고, 상기 촬영부에 의해 제2 시점에서 촬영된 제2 영상으로부터 제2 얼굴 영역의 크기 및 제2 기준 좌표를 산출하는 단계;를 포함하고,
상기 PTZ 제어 수행 단계는,
상기 제1 얼굴 영역의 크기와 상기 제2 얼굴 영역의 크기의 변화 및 상기 제1 기준 좌표와 상기 제2 기준 좌표의 변화에 따라 상기 촬영부에 대한 PTZ 제어를 수행하는 단계;를 포함하는, 표시 제어 방법.
A video display control method using a user terminal device including a display unit that displays an image or video, comprising:
Taking an image including a user and the user's surroundings;
detecting the user's face area from the image;
calculating the size of the face area and reference coordinates, which are average coordinates or intermediate coordinates of pixels included in the face area; and
performing PTZ control on the capturing unit that captured the image in response to changes over time in the size of the face area and the reference coordinates;
Including,
The step of calculating the size and reference coordinates of the face area is,
The size and first reference coordinates of the first face area are calculated from the first image captured at the first viewpoint by the photographing unit, and the size of the second face area is calculated from the second image photographed at the second viewpoint by the photographing unit. Comprising: calculating the size and second reference coordinates,
The PTZ control performance step is,
A display comprising; performing PTZ control on the photographing unit according to changes in the size of the first face area and the size of the second face area and changes in the first and second reference coordinates. Control method.
◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 10 was abandoned upon payment of the setup registration fee.◈ 제9항에 있어서,
상기 PTZ 제어 수행 단계에서는, 상기 제1 얼굴 영역의 크기로부터 상기 제2 얼굴 영역의 크기가 변화하는 경우, 줌-인 (Zoom-In) 또는 줌-아웃 (Zoom-Out) 제어를 수행하는 표시 제어 방법.
According to clause 9,
In the PTZ control performance step, when the size of the second face area changes from the size of the first face area, display control to perform zoom-in or zoom-out control method.
◈청구항 11은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 11 was abandoned upon payment of the setup registration fee.◈ 제9항에 있어서,
상기 PTZ 제어 수행 단계에서는, 상기 제1 기준 좌표의 x 좌표로부터 상기 제2 기준 좌표의 x 좌표가 변화하는 경우, 팬 (Pan) 제어를 수행하는 표시 제어 방법.
According to clause 9,
In the PTZ control execution step, when the x-coordinate of the second reference coordinate changes from the x-coordinate of the first reference coordinate, a display control method of performing pan control.
◈청구항 12은(는) 설정등록료 납부시 포기되었습니다.◈◈Claim 12 was abandoned upon payment of the setup registration fee.◈ 제9항에 있어서,
상기 PTZ 제어 수행 단계에서는, 상기 제1 기준 좌표의 y 좌표로부터 상기 제2 기준 좌표의 y 좌표가 변화하는 경우, 틸트 (Tilt) 제어를 수행하는 표시 제어 방법.
According to clause 9,
In the PTZ control performance step, when the y-coordinate of the second reference coordinate changes from the y-coordinate of the first reference coordinate, a display control method of performing tilt control.
삭제delete
KR1020160042396A 2016-04-06 2016-04-06 Display Control System, Method and Computer Readable Record Medium Thereof KR102596487B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160042396A KR102596487B1 (en) 2016-04-06 2016-04-06 Display Control System, Method and Computer Readable Record Medium Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160042396A KR102596487B1 (en) 2016-04-06 2016-04-06 Display Control System, Method and Computer Readable Record Medium Thereof

Publications (2)

Publication Number Publication Date
KR20170114822A KR20170114822A (en) 2017-10-16
KR102596487B1 true KR102596487B1 (en) 2023-11-01

Family

ID=60295568

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160042396A KR102596487B1 (en) 2016-04-06 2016-04-06 Display Control System, Method and Computer Readable Record Medium Thereof

Country Status (1)

Country Link
KR (1) KR102596487B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038546A1 (en) 2010-08-10 2012-02-16 Daryl Cromer Gesture control
US20120287163A1 (en) * 2011-05-10 2012-11-15 Apple Inc. Scaling of Visual Content Based Upon User Proximity
KR101471846B1 (en) 2014-03-28 2014-12-12 주식회사 로보티어 The FX controlling box and FX protecting system and its controlling way of FX system
KR101533686B1 (en) 2014-06-30 2015-07-09 숭실대학교산학협력단 Apparatus and method for tracking gaze, recording medium for performing the method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140079947A (en) * 2012-12-20 2014-06-30 한국전자통신연구원 Video recording apparatus for a vehicle and Method of video recording for a vehicle
KR20150039463A (en) * 2013-10-02 2015-04-10 삼성전자주식회사 A 3 dimension display device and 3 dimension image processing method
KR102152725B1 (en) * 2014-05-29 2020-09-07 한화테크윈 주식회사 Control apparatus for camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038546A1 (en) 2010-08-10 2012-02-16 Daryl Cromer Gesture control
US20120287163A1 (en) * 2011-05-10 2012-11-15 Apple Inc. Scaling of Visual Content Based Upon User Proximity
KR101471846B1 (en) 2014-03-28 2014-12-12 주식회사 로보티어 The FX controlling box and FX protecting system and its controlling way of FX system
KR101533686B1 (en) 2014-06-30 2015-07-09 숭실대학교산학협력단 Apparatus and method for tracking gaze, recording medium for performing the method

Also Published As

Publication number Publication date
KR20170114822A (en) 2017-10-16

Similar Documents

Publication Publication Date Title
KR102291461B1 (en) Technologies for adjusting a perspective of a captured image for display
CN108958473B (en) Eyeball tracking method, electronic device and non-transitory computer readable recording medium
US10157477B2 (en) Robust head pose estimation with a depth camera
US10755438B2 (en) Robust head pose estimation with a depth camera
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
US20170316582A1 (en) Robust Head Pose Estimation with a Depth Camera
JP2015087824A (en) Screen operation device and screen operation method
WO2016163183A1 (en) Head-mounted display system and computer program for presenting real space surrounding environment of user in immersive virtual space
CN111937045A (en) Information processing apparatus, information processing method, and recording medium
JP7172982B2 (en) Image processing device
CN110895433B (en) Method and apparatus for user interaction in augmented reality
JP2021196741A (en) Image processing device, image processing method and program
US11443719B2 (en) Information processing apparatus and information processing method
EP3547079B1 (en) Presenting images on a display device
TW201709022A (en) Non-contact control system and method
CN110383819A (en) It generates the method for the directional information of omnidirectional images and executes the device of this method
KR102596487B1 (en) Display Control System, Method and Computer Readable Record Medium Thereof
CN110892705A (en) Method for photographing by determining optimum condition and apparatus for performing the same
WO2018168825A1 (en) Image processing device and electronic equipment
US10482641B2 (en) Virtual reality display
Li et al. A low-cost head and eye tracking system for realistic eye movements in virtual avatars
US20170161933A1 (en) Mobile virtual reality (vr) operation method, system and storage media
JP2016220148A (en) Control apparatus, control method, and system
WO2018168824A1 (en) Image processing device and electronic equipment
CN114063775A (en) Remote gaze interaction device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right