KR102172985B1 - Display apparatus and method for displaying graphic item using the same - Google Patents

Display apparatus and method for displaying graphic item using the same Download PDF

Info

Publication number
KR102172985B1
KR102172985B1 KR1020200008884A KR20200008884A KR102172985B1 KR 102172985 B1 KR102172985 B1 KR 102172985B1 KR 1020200008884 A KR1020200008884 A KR 1020200008884A KR 20200008884 A KR20200008884 A KR 20200008884A KR 102172985 B1 KR102172985 B1 KR 102172985B1
Authority
KR
South Korea
Prior art keywords
graphic element
face area
area
detected
user
Prior art date
Application number
KR1020200008884A
Other languages
Korean (ko)
Other versions
KR20200014393A (en
Inventor
정길수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200008884A priority Critical patent/KR102172985B1/en
Publication of KR20200014393A publication Critical patent/KR20200014393A/en
Application granted granted Critical
Publication of KR102172985B1 publication Critical patent/KR102172985B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • G06K9/00228
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06K2009/2045
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

그래픽 요소 디스플레이 방법이 개시된다. 본 그래픽 요소 디스플레이 방법은 기준 얼굴 영역에 오버랩되는 그래픽 요소를 저장하는 단계, 이미지에 포함된 사용자의 얼굴 영역을 검출하는 단계, 기준 얼굴 영역이 향하는 방향을 기준으로 검출된 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형하는 단계 및, 변형된 그래픽 요소를 이미지 내의 얼굴 영역에 오버랩하여 디스플레이하는 단계를 포함한다.A method of displaying a graphic element is disclosed. The present graphic element display method includes storing a graphic element overlapping a reference face area, detecting a user's face area included in an image, and depending on the direction in which the detected face area faces based on the direction the reference face area faces. Deforming the graphic element, and displaying the deformed graphic element by overlapping the face region in the image.

Description

디스플레이 장치 및 그의 그래픽 요소 디스플레이 방법 { DISPLAY APPARATUS AND METHOD FOR DISPLAYING GRAPHIC ITEM USING THE SAME }Display device and its graphic element display method {DISPLAY APPARATUS AND METHOD FOR DISPLAYING GRAPHIC ITEM USING THE SAME}

본 발명은 디스플레이 장치 및 그의 그래픽 요소 디스플레이 방법에 관한 것으로, 더욱 상세하게는 이미지에 그래픽 요소를 오버랩하여 디스플레이하는 디스플레이 장치 및 그의 그래픽 요소 디스플레이 방법에 관한 것이다.The present invention relates to a display device and a method for displaying graphic elements thereof, and more particularly, to a display device for displaying a graphic element by overlapping an image and a method for displaying graphic elements thereof.

최근 전자 기술의 발전으로, 핸드폰, TV 등의 디스플레이 장치는 상대방과 화상 통화를 수행 시, 상대방의 얼굴에 다양한 그래픽 요소를 오버랩하는 기능을 제공하고 있다. 예를 들어, 마스크, 콧수염 등 다양한 그래픽 요소를 상대방의 얼굴 영역에 오버랩하여 사용자의 흥미를 유발시키고 있다.With the recent development of electronic technology, display devices such as mobile phones and TVs provide a function of overlapping various graphic elements on the face of the other party when performing a video call with the other party. For example, various graphic elements such as masks and mustaches are overlapped on the other's face area to induce user interest.

하지만, 종래 디스플레이 장치는 상대방이 정면을 바라보는 것을 전제로 그래픽 요소를 오버랩하기 때문에, 상대방의 얼굴이 회전된 경우 오버랩된 그래픽 요소는 자연스럽지 못하는 문제점이 존재하였다.However, since the conventional display device overlaps graphic elements on the premise that the other party is facing the front, there is a problem that the overlapped graphic elements are not natural when the other party's face is rotated.

따라서, 상대방의 얼굴이 회전된 경우에도, 회전된 얼굴에 자연스럽게 그래픽 요소를 오버랩하여 디스플레이하기 위한 방안의 모색이 요청된다.Therefore, even when the other person's face is rotated, it is required to find a plan for displaying by naturally overlapping graphic elements on the rotated face.

본 발명은 상술한 필요성에 따른 것으로 본 발명의 목적은 회전된 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형하고 변형된 그래픽 요소를 얼굴 영역에 오버랩할 수 있는 디스플레이 장치 및 그의 그래픽 요소 디스플레이 방법을 제공함에 있다.The present invention is in accordance with the above-described necessity, and an object of the present invention is to provide a display device capable of deforming a graphic element according to a direction in which a rotated face area faces and overlapping the deformed graphic element on a face area, and a graphic element display method thereof. Is in.

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 디스플레이 장치의 그래픽 요소 디스플레이 방법은, 기준 얼굴 영역에 오버랩되는 그래픽 요소를 저장하는 단계 ,이미지에 포함된 사용자의 얼굴 영역을 검출하는 단계, 상기 기준 얼굴 영역이 향하는 방향을 기준으로 상기 검출된 얼굴 영역이 향하는 방향에 따라 상기 그래픽 요소를 변형하는 단계 및, 상기 변형된 그래픽 요소를 상기 이미지 내의 얼굴 영역에 오버랩하여 디스플레이하는 단계를 포함한다.According to an embodiment of the present invention for achieving the above object, a method of displaying a graphic element of a display device includes storing a graphic element overlapping a reference face area, detecting a user's face area included in the image. And transforming the graphic element according to a direction in which the detected face area is directed based on a direction in which the reference face area is facing, and displaying the modified graphic element by overlapping the face area in the image. do.

여기에서, 본 실시 예에 따른 그래픽 요소 디스플레이 방법은, 사용자 명령에 따라 상기 이미지를 캡쳐하는 단계, 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 검출하는 단계 및, 상기 캡쳐된 이미지에 오버랩되도록 입력된 상기 그래픽 요소 및 상기 입력된 그래픽 요소가 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역에서 오버랩된 위치 정보를 저장하는 더 단계를 포함할 수 있다.Here, the graphic element display method according to the present embodiment includes the steps of capturing the image according to a user command, detecting a user's face area included in the captured image, and inputting to overlap the captured image. The further step of storing the overlapped position information of the graphic element and the input graphic element in the face area of the user included in the captured image may be further included.

또한, 상기 변형하는 단계는, 상기 캡쳐된 이미지에 포함된 상기 사용자의 얼굴 영역을 상기 기준 얼굴 영역으로 설정하여, 그래픽 요소의 형태를 변형할 수 있다.In the transforming step, the user's face region included in the captured image may be set as the reference face region, and the shape of the graphic element may be changed.

그리고, 상기 변형하는 단계는, 기설정된 얼굴 구성 요소에 기초하여 상기 기준 얼굴 영역 및 상기 검출된 얼굴 영역 각각에 대한 제1 및 제2 기준점을 설정하는 단계, 상기 제1 기준점을 기준으로 상기 제2 기준점의 상대적인 위치를 결정하는 단계 및, 상기 결정된 상대적인 위치에 기초하여 상기 그래픽 요소를 변형하는 단계를 포함할 수 있다.The transforming may include setting first and second reference points for each of the reference face region and the detected face region based on a preset face component, and the second reference point based on the first reference point. It may include determining a relative position of the reference point, and deforming the graphic element based on the determined relative position.

또한, 상기 변형하는 단계는, 상기 제1 기준점을 기준으로 상기 기준 얼굴 영역을 복수의 영역으로 분할하는 단계, 상기 제2 기준점을 기준으로 상기 검출된 얼굴 영역을 복수의 영역으로 분할하는 단계 및, 상기 제1 기준점을 기준으로 분할된 복수의 영역 및 상기 제2 기준점을 기준으로 분할된 복수의 영역 각각의 크기를 비교하고, 상기 비교 결과에 기초하여 상기 그래픽 요소의 형태를 변경하는 단계;를 포함할 수 있다.In addition, the transforming may include dividing the reference face region into a plurality of regions based on the first reference point, dividing the detected face region into a plurality of regions based on the second reference point, and Comprising the size of each of the plurality of regions divided based on the first reference point and the plurality of regions divided based on the second reference point, and changing the shape of the graphic element based on the comparison result; and can do.

그리고, 상기 디스플레이하는 단계는, 상기 형태가 변경된 그래픽 요소의 기준 위치를 상기 제2 기준점에 매칭시켜 상기 검출된 얼굴 영역에 오버랩하여 디스플레이할 수 있다.In the displaying, the reference position of the graphic element whose shape has been changed may be matched with the second reference point to overlap the detected face area and displayed.

한편, 본 발명의 일 실시 예에 따른 디스플레이 장치는 기준 얼굴 영역에 오버랩되는 그래픽 요소를 저장하는 저장부, 이미지를 디스플레이하는 디스플레이부, 상기 이미지에 포함된 사용자의 얼굴 영역을 검출하는 검출부 및, 상기 기준 얼굴 영역이 향하는 방향을 기준으로 상기 검출된 얼굴 영역이 향하는 방향에 따라 상기 그래픽 요소를 변형하고, 상기 변형된 그래픽 요소를 상기 이미지 내의 얼굴 영역에 오버랩하여 디스플레이하도록 제어하는 제어부를 포함한다.Meanwhile, the display device according to an embodiment of the present invention includes a storage unit for storing graphic elements overlapping a reference face area, a display unit for displaying an image, a detection unit for detecting a user's face area included in the image, and And a controller configured to transform the graphic element according to a direction in which the detected face area faces based on a direction in which the reference face area faces, and to display the transformed graphic element by overlapping the face area in the image.

여기에서, 상기 디스플레이부는, 사용자 명령에 따라 상기 이미지를 캡쳐하여 디스플레이하고, 상기 검출부는, 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 검출하며, 상기 제어부는, 상기 캡쳐된 이미지에 오버랩되도록 입력된 상기 그래픽 요소 및 상기 입력된 그래픽 요소가 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역에서 오버랩된 위치 정보를 저장하도록 상기 저장부를 제어할 수 있다.Here, the display unit captures and displays the image according to a user command, the detection unit detects a user's face area included in the captured image, and the control unit inputs the captured image to overlap The storage unit may be controlled to store the overlapped position information of the graphic element and the input graphic element in the face area of the user included in the captured image.

또한, 상기 제어부는, 상기 캡쳐된 이미지에서 검출된 사용자의 얼굴 영역을 상기 기준 얼굴 영역으로 설정할 수 있다. In addition, the controller may set the user's face region detected in the captured image as the reference face region.

그리고, 상기 제어부는, 기설정된 얼굴 구성 요소에 기초하여 상기 기준 얼굴 영역 및 상기 검출된 얼굴 영역 각각에 대해 제1 및 제2 기준점을 설정하고, 상기 제1 기준점을 기준으로 상기 제2 기준점의 상대적인 위치를 결정하며, 상기 결정된 상대적인 위치에 기초하여 상기 그래픽 요소를 변형할 수 있다.In addition, the control unit sets first and second reference points for each of the reference face region and the detected face region based on a preset face component, and the second reference point is relative to the first reference point. The position may be determined, and the graphic element may be deformed based on the determined relative position.

또한, 상기 제어부는, 상기 제1 기준점을 기준으로 상기 기준 얼굴 영역을 복수의 영역으로 분할하고, 상기 제2 기준점을 기준으로 상기 검출된 얼굴 영역을 복수의 영역으로 분할하며, 상기 제1 기준점을 기준으로 분할된 복수의 영역 및 상기 제2 기준점을 기준으로 분할된 복수의 영역 각각의 크기를 비교하고, 상기 비교 결과에 기초하여 상기 그래픽 요소의 각 영역의 형태를 변경할 수 있다.In addition, the control unit divides the reference face region into a plurality of regions based on the first reference point, divides the detected face region into a plurality of regions based on the second reference point, and divides the first reference point into a plurality of regions. The size of each of the plurality of regions divided based on the reference point and the plurality of regions divided based on the second reference point may be compared, and the shape of each region of the graphic element may be changed based on the comparison result.

그리고, 상기 제어부는, 상기 형태가 변경된 그래픽 요소의 기준 위치를 상기 제2 기준점에 매칭시켜 상기 검출된 얼굴 영역에 오버랩하여 디스플레이하도록 제어할 수 있다.In addition, the controller may control to match the reference position of the graphic element whose shape has been changed with the second reference point to overlap and display the detected face area.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 상대방의 얼굴이 회전된 경우에도 자연스러운 그래픽 요소를 오버랩하여 디스플레이할 수 있다. 따라서, 사용자가 느끼는 흥미는 더욱 증가될 수 있다.According to various embodiments of the present disclosure as described above, even when the other person's face is rotated, natural graphic elements may be overlapped and displayed. Therefore, the user's interest can be further increased.

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 설명하기 위한 블록도,
도 2는 본 발명의 일 실시 예에 따른 기준 얼굴 영역과 그래픽 요소를 설명하기 위한 도면,
도 3 내지 도 7은 본 발명의 일 실시 예에 따라 그래픽 요소를 변형하는 방법을 설명하기 위한 도면들,
도 8은 본 발명의 일 실시 예에 따라 사용자로부터 그래픽 요소를 입력받는 예를 설명하기 위한 흐름도,
도 9는 본 발명의 일 실시 예에 따른 디스플레이 장치의 세부 구성을 설명하기 위한 블록도,
도 10 내지 도 17은 본 발명의 일 실시 예에 따라 그래픽 요소를 오버랩하여 디스플레이하는 방법을 설명하기 위한 도면들, 그리고
도 18은 본 발명의 일 실시 예에 따른 그래픽 요소 디스플레이 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating a configuration of a display device according to an embodiment of the present invention;
2 is a view for explaining a reference face area and graphic elements according to an embodiment of the present invention;
3 to 7 are diagrams for explaining a method of transforming a graphic element according to an embodiment of the present invention;
8 is a flowchart illustrating an example of receiving a graphic element from a user according to an embodiment of the present invention;
9 is a block diagram illustrating a detailed configuration of a display device according to an embodiment of the present invention;
10 to 17 are diagrams for explaining a method of overlapping and displaying graphic elements according to an embodiment of the present invention, and
18 is a flowchart illustrating a method of displaying a graphic element according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 설명하기 위한 블록도이다. 도 1에 따르면, 디스플레이 장치(100)는 저장부(110), 디스플레이부(120), 검출부(130) 및 제어부(140)를 포함한다.1 is a block diagram illustrating a configuration of a display device according to an embodiment of the present invention. Referring to FIG. 1, the display apparatus 100 includes a storage unit 110, a display unit 120, a detection unit 130, and a control unit 140.

저장부(110)는 기준 얼굴 영역에 오버랩되는 그래픽 요소를 저장한다. 보다 구체적인 설명을 위해 도 2를 참조한다.The storage unit 110 stores graphic elements overlapping the reference face area. Refer to FIG. 2 for a more detailed description.

그래픽 요소란, 이미지에 포함된 사용자의 얼굴 영역에 오버랩되어 사용자에게 흥미나 재미를 유발시킬 수 있는 다양한 종류의 아이템을 포함할 수 있다. 예를 들어, 도 2의 (a)와 같이, 그래픽 요소(210)는 마스크, 수염, 뿔, 상처, 안경 등 사용자의 얼굴 영역에 오버랩될 수 있는 다양한 종류의 그래픽 요소를 포함할 수 있다.The graphic element may include various types of items that may cause interest or fun to the user by overlapping with the user's face area included in the image. For example, as shown in (a) of FIG. 2, the graphic element 210 may include various types of graphic elements that may overlap the user's face area, such as a mask, beard, horn, wound, and glasses.

또한, 기준 얼굴 영역이란, 그래픽 요소가 오버랩되어 디스플레이될 때 자연스러운 이미지를 구현할 수 있는 얼굴 영역이 될 수 있다. 일반적으로 그래픽 요소는 정면 방향을 향하는 얼굴 영역에 매칭되어 저장되므로, 도 2 의 (b)와 같이 기준 얼굴 영역(220)은 정면 방향을 향하는 얼굴 영역이 될 수 있다.In addition, the reference face region may be a face region capable of realizing a natural image when graphic elements are overlapped and displayed. In general, since the graphic element is matched to and stored in a face area facing the front direction, the reference face area 220 may be a face area facing the front direction as shown in FIG. 2B.

한편, 그래픽 요소는 기준 얼굴 영역의 크기에 대응되는 크기를 가질 수 있다. 즉, 그래픽 요소가 기준 얼굴 영역에 오버랩될 때 자연스럽게 오버랩될 수 있도록, 그래픽 요소는 기준 얼굴 영역의 크기에 맞는 크기를 가질 수 있다. Meanwhile, the graphic element may have a size corresponding to the size of the reference face area. That is, when the graphic element overlaps the reference face region, the graphic element may have a size suitable for the size of the reference face region so that it may naturally overlap.

또한, 저장부(110)는 그래픽 요소가 얼굴 영역에 오버랩되는 위치 정보를 저장할 수 있다. 구체적으로, 그래픽 요소의 종류에 따라 그래픽 요소가 얼굴 영역에서 오버랩되는 위치는 서로 다르므로, 저장부(110)는 각 그래픽 요소마다 얼굴 영역에 오버랩되는 위치에 대한 정보를 저장할 수 있다. In addition, the storage unit 110 may store location information in which the graphic element overlaps the face area. Specifically, since the positions at which the graphic elements overlap the face area are different according to the type of the graphic element, the storage unit 110 may store information on the overlapping positions on the face area for each graphic element.

이 경우, 저장부(110)는 그래픽 요소의 기준 위치가 얼굴 영역 내에서 위치하는 지점에 대한 정보를 저장할 수 있다. 여기에서, 그래픽 요소의 기준 위치는 그래픽 요소의 종류에 따라 달라질 수 있다. In this case, the storage unit 110 may store information on a point where the reference position of the graphic element is located within the face area. Here, the reference position of the graphic element may vary depending on the type of the graphic element.

예를 들어, 도 2의 (c)와 같이 그래픽 요소가 마스크(211)인 경우, 저장부(110)는 마스크의 기준 위치(211-1)가 기준 얼굴 영역에 포함된 두 눈을 연결한 가로선(221) 및 기준 얼굴 영역에 포함된 코를 연결한 세로선(222)이 만나는 지점(223)에 위치하도록 마스크가 오버랩되는 위치에 대한 정보를 저장할 수 있다. For example, when the graphic element is the mask 211 as shown in (c) of FIG. 2, the storage unit 110 includes a horizontal line connecting two eyes in which the reference position 211-1 of the mask is included in the reference face area. Information on a position where the mask overlaps may be stored so that 221 and the vertical line 222 connecting the nose included in the reference face region meet each other at a point 223.

다른 예로, 도 2의 (d)와 같이 그래픽 요소가 콧수염(212)인 경우, 저장부(110)는 콧수염의 기준 위치(211-2)가 코와 입 사이의 중심(224)에 위치하도록 콧수염이 오버랩되는 위치에 대한 정보를 저장할 수 있다.As another example, as shown in (d) of FIG. 2, when the graphic element is the mustache 212, the storage unit 110 may have a mustache such that the reference position 211-2 of the mustache is located at the center 224 between the nose and the mouth. Information about this overlapping position can be stored.

이를 위해, 저장부(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.To this end, the storage unit 110 includes a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory). Etc.), RAM, and ROM may include at least one type of storage medium.

디스플레이부(120)는 이미지를 디스플레이할 수 있다. 여기에서, 이미지는 정지 영상이거나 동영상일 수 있다. 특히, 동영상인 경우, 이미지는 타 디스플레이 장치(미도시)와 화상 통화가 수행되어, 타 디스플레이 장치(미도시)로부터 수신되는 화상 통화 영상의 각 영상 프레임일 수 있다.The display unit 120 may display an image. Here, the image may be a still image or a moving image. In particular, in the case of a video, the image may be each image frame of a video call image received from another display device (not shown) by performing a video call with another display device (not shown).

또한, 이미지는 디스플레이 장치(100)에 기저장되어 있거나 외부로부터 수신될 수 있다. 예를 들어, 외부로부터 수신되는 경우, 디스플레이 장치(100)는 타 디스플레이 장치(미도시)와 화상 통화를 수행하여 네트워크를 통해 타 디스플레이 장치(미도시)로부터 화상 통화 영상을 수신하여 출력할 수 있다. Also, the image may be pre-stored in the display device 100 or may be received from the outside. For example, when received from the outside, the display device 100 may perform a video call with another display device (not shown) to receive and output a video call image from another display device (not shown) through a network. .

이를 위해, 디스플레이부(120)는 LCD(Liquid Crystal Display Panel), OLED(Organic Light Emitting Diodes) 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다. To this end, the display unit 120 may be implemented as a Liquid Crystal Display Panel (LCD), Organic Light Emitting Diodes (OLED), or the like, but is not limited thereto.

한편, 디스플레이부(120)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수 있다. 이 경우, 디스플레이부(120)은 출력 장치 이외에 다양한 사용자 명령을 입력받기 입력 장치로서 사용될 수 있게 된다. 여기서, 터치스크린은 터치 입력 위치 및 면적뿐만 아니라 터치 입력 압력까지도 검출할 수 있도록 구성될 수 있다.Meanwhile, the display unit 120 may be implemented in the form of a touch screen forming a layer structure with a touch pad. In this case, the display unit 120 can be used as an input device to receive input of various user commands other than the output device. Here, the touch screen may be configured to detect not only a touch input location and area, but also a touch input pressure.

이 경우, 디스플레이부(120)는 사용자 명령을 입력받기 위한 다양한 GUI를 디스플레이할 수 있다. In this case, the display unit 120 may display various GUIs for receiving user commands.

검출부(130)는 이미지에 포함된 얼굴 영역을 검출한다. 예를 들어, 검출부(130)는 특징 기반 얼굴 검출 방법을 이용할 수 있다. 구체적으로, 검출부(130)는 얼굴 내의 특징점(가령, 눈, 코, 입 등과 같은 얼굴 구성 요소, 질감, 살색) 등을 검출하고, 검출된 특징점을 이용하여 이미지에 포함된 얼굴 영역을 검출할 수 있다. 얼굴의 여러 가지 특징들 중에서 특히 살색은 얼굴의 이동, 회전, 크기 변화 등에 덜 민감한 특성을 가지므로, 얼굴 인식 분야에 있어서 많이 사용되고 있는 방법이다. The detection unit 130 detects a face area included in the image. For example, the detection unit 130 may use a feature-based face detection method. Specifically, the detection unit 130 may detect feature points (e.g., facial elements such as eyes, nose, mouth, etc., texture, flesh color), etc. in the face, and detect a face area included in the image using the detected feature points. have. Among the various features of a face, skin color, in particular, is less sensitive to movement, rotation, and size change of the face, and thus is a method that is widely used in the field of face recognition.

다른 예로, 검출부(130)는 SVM(Support Vector Machine)을 이용하여 이미지 내에서 얼굴 영역을 검출할 수 있다. SVM 기반 방법들은 이미지로부터 각기 다른 영역들을 서브 샘플링하여 학습기를 통해 얼굴 영역과 비 얼굴 영역(얼굴이 아닌 영역)에 대해 학습시킨 뒤 입력되는 이미지에서 얼굴을 찾도록 하는 방법이다. As another example, the detection unit 130 may detect a face region in an image using a support vector machine (SVM). SVM-based methods are a method of sub-sampling different areas from an image, learning about the face area and non-face area (non-face area) through a learner, and then finding a face in the input image.

또 다른 예로, 검출부(130)는 얼굴 템플릿 기반 검출 방법을 이용하여 이미지 내에서 얼굴 영역을 검출할 수 있다. 얼굴 템플릿 기반 검출 방법은 얼굴에 대한 몇 가지 표준 패턴을 만든 뒤에 패턴을 얼굴 검출을 위해 저장한다. 이후, 패턴들은 이미지의 탐색 윈도우 안에서 이미지와 하나씩 비교되어 얼굴이 검출된다. As another example, the detection unit 130 may detect a face area within an image using a face template-based detection method. The face template-based detection method creates several standard patterns for faces and then stores the patterns for face detection. Then, the patterns are compared with the image one by one in the search window of the image, and a face is detected.

검출부(130)에서 얼굴 영역 검출을 위해 사용하는 방법들은 이미 공지된 내용이라는 점에서, 상세한 설명은 생략한다. 다만, 상술한 예외에도 검출부(130)는 다양한 공지된 방법을 이용하여 이미지 내에서 얼굴 영역을 검출할 수 있음은 물론이다.Since the methods used by the detection unit 130 to detect the face area are already known, detailed descriptions are omitted. However, even with the above-described exceptions, it goes without saying that the detection unit 130 may detect a face area within an image using various known methods.

이와 같이, 검출부(130)는 다양한 방법을 통해 이미지 내에서 얼굴 영역 및 얼굴 영역 내에서 눈, 코, 입, 귀 등의 검출할 수 있다. 뿐만 아니라, 검출부(130)는 얼굴 영역의 크기, 회전 상태 등을 검출할 수도 있다.In this way, the detection unit 130 may detect a face region within an image and an eye, a nose, a mouth, and an ear within the face region through various methods. In addition, the detection unit 130 may detect the size and rotation state of the face area.

제어부(140)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. The controller 140 controls the overall operation of the display device 100.

특히, 제어부(140)는 기준 얼굴 영역이 향하는 방향을 기준으로 검출된 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형하고, 변형된 그래픽 요소를 이미지 내의 얼굴 영역에 오버랩하여 디스플레이하도록 제어할 수 있다. In particular, the controller 140 may control the graphic element to be deformed according to the direction in which the detected face region faces based on the direction in which the reference face region faces, and to display the transformed graphic element by overlapping the face region in the image.

제어부(140)는 기설정된 얼굴 구성 요소에 기초하여 기준 얼굴 영역 및 검출된 얼굴 영역 각각에 대한 제1 기준점 및 제2 기준점을 설정하고, 제1 기준점을 기준으로 제2 기준점의 상대적인 위치를 결정하며, 결정된 상대적인 위치에 기초하여 그래픽 요소를 변형할 수 있다. 여기에서, 얼굴 구성 요소란, 눈, 코, 입 등과 같이 얼굴을 구송하는 요소일 수 있다.The controller 140 sets a first reference point and a second reference point for each of the reference face area and the detected face area based on a preset face component, and determines a relative position of the second reference point based on the first reference point. , The graphic element may be deformed based on the determined relative position. Here, the facial component may be an element that conveys a face such as eyes, nose, and mouth.

이하에서 첨부된 도 3 내지 도 7을 참조하여 그래픽 요소를 변형하는 구체적인 방법을 설명하도록 한다.Hereinafter, a detailed method of transforming a graphic element will be described with reference to FIGS. 3 to 7.

도 3 내지 도 7은 본 발명의 일 실시 예에 따라 그래픽 요소를 변형하는 방법을 설명하기 위한 도면들이다.3 to 7 are diagrams for explaining a method of transforming a graphic element according to an embodiment of the present invention.

먼저, 도 3은 본 발명의 일 실시 예에 따라 그래픽 요소를 변형하는 방법을 설명하기 위한 흐름도이다. 도 3을 설명함에 있어, 설명의 편의를 위해 도 4 내지 도 7을 함께 참조하도록 한다. First, FIG. 3 is a flowchart illustrating a method of transforming a graphic element according to an embodiment of the present invention. In describing FIG. 3, for convenience of description, reference will be made to FIGS. 4 to 7 together.

제어부(140)는 제1 기준점을 기준으로 기준 얼굴 영역을 복수의 영역으로 분할하고(S310), 제2 기준점을 기준으로 검출된 얼굴 영역을 복수의 영역으로 분할할 수 있다(S320). The controller 140 may divide the reference face region into a plurality of regions based on the first reference point (S310), and may divide the face region detected based on the second reference point into a plurality of regions (S320).

예를 들어, 도 4의 (a)와 같이, 제어부(140)는 기준 얼굴 영역(410)에 포함된 두 눈을 연결한 가로선(412) 및 기준 얼굴 영역(410)에 포함된 코를 연결한 세로선(413)이 만나는 지점을 제1 기준점(411)으로 설정할 수 있다. 이 경우, 제1 기준점(411)은 기준 얼굴 영역(410)에서 두 눈의 중심이 될 수 있다. For example, as shown in (a) of FIG. 4, the control unit 140 connects a horizontal line 412 connecting two eyes included in the reference face area 410 and a nose included in the reference face area 410. A point where the vertical line 413 meets may be set as the first reference point 411. In this case, the first reference point 411 may be the center of both eyes in the reference face area 410.

그리고, 제어부(140)는 도 4의 (b) 내지 (d)와 같이, 검출된 얼굴 영역에 제2 기준점을 설정할 수 있다. 도 4의 (b) 내지 (d)에서는 검출된 얼굴 영역(420, 430, 440, 450)이 각각 좌측 방향, 우측 방향, 상측 방향, 하측 방향을 향하는 경우를 도시하였다. In addition, the controller 140 may set the second reference point on the detected face area as shown in FIGS. 4B to 4D. 4B to 4D illustrate cases in which the detected face regions 420, 430, 440, and 450 face left, right, upper, and lower directions, respectively.

구체적으로, 제어부(140)는 검출된 얼굴 영역(420, 430, 440, 450)에 포함된 두 눈을 연결한 가로선(422, 432, 442, 452) 및 검출된 얼굴 영역(420)에 포함된 코를 연결한 세로선(423, 433, 443, 453)이 만나는 지점을 제2 기준점(421, 431, 441, 451)으로 설정할 수 있다. 이 경우, 제2 기준점(421, 431, 441, 451)은 검출된 얼굴 영역(420, 430, 440, 450)에서 두 눈의 중심이 될 수 있다. Specifically, the control unit 140 includes horizontal lines 422, 432, 442, 452 connecting two eyes included in the detected face areas 420, 430, 440, 450 and the detected face areas 420. A point where the vertical lines 423, 433, 443, and 453 connecting the nose meet may be set as the second reference points 421, 431, 441, and 451. In this case, the second reference points 421, 431, 441, and 451 may be the centers of the two eyes in the detected face regions 420, 430, 440, and 450.

여기에서, 제1 기준점(411)이 기준 얼굴 영역(410)에서 두 눈의 중심으로 설정되고, 제2 기준점(421, 431, 441, 451)이 검출된 얼굴 영역(420, 430, 440, 450)에서 두 눈의 중심으로 설정되는 것은 사용자가 검출된 얼굴 영역에 오버랩하기 위해 선택한 그래픽 요소의 종류에 따라 달라질 수 있다. Here, the first reference point 411 is set as the center of the two eyes in the reference face area 410, and the face areas 420, 430, 440, 450 in which the second reference points 421, 431, 441, and 451 are detected. ), which is set as the center of the two eyes may vary depending on the type of graphic element selected by the user to overlap the detected face area.

즉, 제어부(140)는 사용자가 선택한 그래픽 요소의 기준 위치에 기초하여 제1 기준점 및 제2 기준점을 설정할 수 있다. 예를 들어, 제어부(140)는 사용자가 선택한 그래픽 요소의 기준 위치가 얼굴 영역 내에서 위치하는 지점에 대한 정보를 이용하여, 그래픽 요소의 기준 위치를 판단하고, 판단된 기준 위치를 제1 기준점 및 제2 기준점으로 설정할 수 있다.That is, the controller 140 may set the first reference point and the second reference point based on the reference position of the graphic element selected by the user. For example, the controller 140 determines the reference position of the graphic element by using information on the point where the reference position of the graphic element selected by the user is located within the face area, and determines the determined reference position to the first reference point and It can be set as a second reference point.

예를 들어, 도 2의 (c)에서 설명한 바와 같이, 마스크는 두 눈을 연결한 가로선 및 코를 연결한 세로선이 만나는 지점(즉, 두 눈의 중심)을 기준 위치로 갖는다. 따라서, 사용자가 오버랩될 그래픽 요소로 마스크를 선택한 경우, 제어부(140)는 기준 얼굴 영역(410)에서 두 눈의 중심을 제1 기준점(411)으로 설정하고, 검출된 얼굴 영역(420, 430, 440, 450)에서 두 눈의 중심을 제2 기준점(421, 431, 441, 451)으로 설정한다. For example, as described in (c) of FIG. 2, the mask has a point where a horizontal line connecting two eyes and a vertical line connecting the nose meet (ie, the center of the two eyes) as a reference position. Therefore, when the user selects a mask as a graphic element to be overlapped, the controller 140 sets the centers of the two eyes in the reference face area 410 as the first reference point 411, and the detected face areas 420, 430, and At 440 and 450), the centers of the two eyes are set as the second reference points 421, 431, 441, and 451.

따라서, 제어부(140)는 다른 그래픽 요소가 선택된 경우에는 선택된 그래픽 요소의 종류에 대응되는 제2 기준점을 설정할 수 있다. 예를 들어, 도 2의 (d)와 같이, 콧수염이 선택된 경우, 제어부(140)는 코와 입 사이의 중심을 제1 기준점 및 제2 기준점으로 설정할 수 있다.Accordingly, when another graphic element is selected, the controller 140 may set a second reference point corresponding to the type of the selected graphic element. For example, as shown in (d) of FIG. 2, when the mustache is selected, the controller 140 may set the center between the nose and the mouth as a first reference point and a second reference point.

한편, 이하에서는 검출된 얼굴 영역에 오버랩될 그래픽 요소가 마스크인 경우를 예로 들어 설명하도록 한다.Meanwhile, hereinafter, a case where the graphic element to be overlapped with the detected face area is a mask will be described as an example.

한편, 제어부(140)는 기준 얼굴 영역 및 검출된 얼굴 영역 각각의 기준점을 설정하기 전에, 각 얼굴 영역의 크기가 동일해지도록 기준 얼굴 영역 또는 검출된 얼굴 영역을 스케일링할 수 있다. 예를 들어, 제어부(140)는 검출된 얼굴 영역의 크기가 기준 얼굴 영역보다 큰 경우, 검출된 얼굴 영역을 다운 스케일링하여 기준 얼굴 영역과 동일한 크기를 갖도록 할 수 있다. 또는, 제어부(140)는 기준 얼굴 영역을 업 스케일링하여 검출된 얼굴 영역과 동일한 크기를 갖도록 할 수도 있다.Meanwhile, before setting a reference point for each of the reference face region and the detected face region, the controller 140 may scale the reference face region or the detected face region so that the size of each face region becomes the same. For example, when the size of the detected face area is larger than the reference face area, the controller 140 may downscale the detected face area to have the same size as the reference face area. Alternatively, the controller 140 may upscale the reference face region to have the same size as the detected face region.

그리고, 제어부(140)는 제1 기준점(413)을 기준으로 기준 얼굴 영역(410)을 가로 방향으로 분할하고 제1 기준점(413)을 기준으로 기준 얼굴 영역(410)을 세로 방향으로 분할하여, 기준 얼굴 영역(410)을 4 등분할 수 있다. In addition, the controller 140 divides the reference face area 410 in the horizontal direction based on the first reference point 413 and divides the reference face area 410 in the vertical direction based on the first reference point 413, The reference face area 410 may be divided into four.

그리고, 제어부(140)는 제2 기준점(421, 431, 441, 451)을 기준으로 검출된 얼굴 영역(420, 430, 440, 450)을 가로 방향으로 분할하고, 제2 기준(421, 431, 441, 451)을 기준으로 검출된 얼굴 영역(420, 430, 440, 450)을 세로 방향으로 분할하여, 검출된 얼굴 영역(420, 430, 440, 450)을 4 등분할 수 있다. Further, the controller 140 divides the detected face regions 420, 430, 440, 450 horizontally based on the second reference points 421, 431, 441, and 451, and divides the second reference points 421, 431, The detected face regions 420, 430, 440, 450 based on 441 and 451 may be divided in a vertical direction, and the detected face regions 420, 430, 440 and 450 may be divided into four.

한편, 도 4에서는 설명의 편의를 위해 기준 얼굴 영역(410)의 각 분할 영역을 1,2,3,4로 표기하였으며, 검출된 얼굴 영역(420, 430, 440, 450)의 각 분할 영역을 1',2',3',4'로 표기하였다.Meanwhile, in FIG. 4, for convenience of explanation, each divided area of the reference face area 410 is indicated as 1,2, 3, and 4, and each divided area of the detected face area 420, 430, 440, 450 is indicated. Marked as 1',2',3',4'.

그리고, 제어부(140)는 검출된 얼굴 영역이 회전된 방향을 판단한다(S330). 즉, 제어부(140)는 기준 얼굴 영역을 기준으로 검출된 얼굴 영역이 회전된 방향을 판단한다. Then, the controller 140 determines the direction in which the detected face area is rotated (S330). That is, the controller 140 determines the direction in which the detected face area is rotated based on the reference face area.

즉, 도 5의 (a)와 같이, 제어부(140)는 x축 및 y축 중 어떠한 축을 중심으로 기준 얼굴 영역(410)을 회전시키면 기준 얼굴 영역(410)이 검출된 얼굴 영역(420, 430, 440, 450)이 향하는 방향을 갖는지를 판단하여, 검출된 얼굴 영역(420, 430, 440, 450)이 기준 얼굴 영역(410)을 기준으로 회전된 방향을 판단할 수 있다. That is, as shown in (a) of FIG. 5, when the control unit 140 rotates the reference face region 410 around any of the x-axis and y-axis, the reference face region 410 is detected face regions 420 and 430. , 440, 450 may be in a direction, and the direction in which the detected face regions 420, 430, 440, and 450 are rotated with respect to the reference face region 410 may be determined.

이 경우, 제어부(140)는 제1 기준점을 기준으로 제2 기준점이 갖는 상대적인 위치 정보를 이용하여, 검출된 얼굴 영역이 회전된 방향을 판단할 수 있다. 구체적으로, 제어부(140)는 제2 기준점이 제1 기준점보다 상측 또는 하측에 위치하는 경우 검출된 얼굴 영역이 x축을 중심으로 회전된 것으로 판단할 수 있으며, 제2 기준점이 제1 기준점보다 좌측 또는 우측에 위치하는 경우 검출된 얼굴 영역이 y축을 중심으로 회전된 것으로 판단할 수 있다.In this case, the controller 140 may determine the direction in which the detected face area is rotated using the relative positional information of the second reference point based on the first reference point. Specifically, when the second reference point is located above or below the first reference point, the control unit 140 may determine that the detected face area is rotated around the x-axis, and the second reference point is to the left of the first reference point or When positioned on the right, it may be determined that the detected face area is rotated around the y-axis.

예를 들어, 도 5의 (b)와 같이, 제2 기준점(421)이 제1 기준점(411)을 기준으로 좌측에 위치하는 경우, 제어부(140)는 검출된 얼굴 영역(420)이 y축을 중심으로 회전된 것으로 검출된 얼굴 영역(420)의 회전 방향을 판단할 수 있다. For example, as shown in (b) of FIG. 5, when the second reference point 421 is located on the left side of the first reference point 411, the control unit 140 determines that the detected face area 420 is on the y-axis. The rotation direction of the face area 420 detected as being rotated around the center may be determined.

또한, 도 5의 (c)와 같이, 제2 기준점(431)이 제1 기준점(411)을 기준으로 우측에 위치하는 경우, 제어부(140)는 검출된 얼굴 영역(420)이 y축을 중심으로 회전된 것으로 검출된 얼굴 영역(430)의 회전 방향을 판단할 수 있다. In addition, as shown in (c) of FIG. 5, when the second reference point 431 is located on the right side with respect to the first reference point 411, the controller 140 determines that the detected face area 420 is centered on the y-axis. The rotation direction of the face area 430 detected as being rotated may be determined.

또한, 도 5의 (d)와 같이, 제2 기준점(441)이 제1 기준점(411)을 기준으로 t상측에 위치하는 경우, 제어부(140)는 검출된 얼굴 영역(440)이 x축을 중심으로 회전된 것으로 검출된 얼굴 영역(440)의 회전 방향을 판단할 수 있다. In addition, as shown in (d) of FIG. 5, when the second reference point 441 is located above the first reference point 411, the controller 140 determines that the detected face area 440 is centered on the x-axis. The direction of rotation of the face region 440 detected as being rotated may be determined.

또한, 도 5의 (e)와 같이, 제2 기준점(451)이 제1 기준점(411)을 기준으로 g하측에 위치하는 경우, 제어부(140)는 검출된 얼굴 영역(450)이 x축을 중심으로 회전된 것으로 검출된 얼굴 영역(450)의 회전 방향을 판단할 수 있다. In addition, as shown in (e) of FIG. 5, when the second reference point 451 is located below g with respect to the first reference point 411, the controller 140 determines that the detected face area 450 is centered on the x-axis. The rotation direction of the face area 450 detected as being rotated may be determined.

한편, 제어부(140)는 그래픽 요소의 크기를 변경하기 위해, 그래픽 요소를 복수의 영역으로 분할할 수 있다. 이 경우, 제어부(140)는 그래픽 요소의 기준 위치를 기준으로 그래픽 요소를 복수의 영역으로 분할할 수 있다. Meanwhile, in order to change the size of the graphic element, the control unit 140 may divide the graphic element into a plurality of areas. In this case, the controller 140 may divide the graphic element into a plurality of areas based on the reference position of the graphic element.

예를 들어, 도 6의 (a)와 같이, 제어부(140)는 기준 위치(461)를 기준으로 마스크(460)를 가로 방향으로 분할하고 기준 위치(461)를 기준으로 마스크(460)를 세로 방향으로 분할하여, 마스크(460)를 4 등분할 수 있다. 한편, 설명의 편의를 위해, 마스크(460)의 각 분할 영역을 1'',2'',3'',4''로 표기하였다.For example, as shown in (a) of FIG. 6, the controller 140 divides the mask 460 in a horizontal direction based on the reference position 461 and vertically divides the mask 460 based on the reference position 461. By dividing in the direction, the mask 460 can be divided into four equal parts. Meanwhile, for convenience of description, each divided area of the mask 460 is indicated as 1 ″, 2 ″, 3 ″, 4 ″.

그리고, 제어부(140)는 제1 기준점을 기준으로 분할된 복수의 영역 및 제2 기준점을 기준으로 분할된 복수의 영역 각각의 크기를 비교하고, 비교 결과에 기초하여 그래픽 요소의 크기를 변경할 수 있다. Further, the controller 140 may compare the sizes of each of the plurality of regions divided based on the first reference point and the plurality of regions divided based on the second reference point, and change the size of the graphic element based on the comparison result. .

구체적으로, 제어부(140)는 기준 얼굴 영역과 검출된 얼굴 영역에서 서로 매칭되는 각 분할 영역의 크기를 비교하여, 기준 얼굴 영역의 각 분할 영역을 기준으로 검출된 얼굴 영역의 각 분할 영역이 확대 또는 축소되는 정도를 판단한다. 여기에서, 매칭되는 각 분할 영역이란, 제1 기준점 및 제2 기준점 각각을 기준으로 동일한 방향에 위치하는 각 분할 영역을 의미한다. 즉, 도 4에서, 검출된 얼굴 영역(420, 430, 440, 450)의 각 분할 영역 1',2',3',4'는 기준 얼굴 영역(410)의 각 분할 영역 1,2,3,4에 각각 매칭되는 것으로 볼 수 있다. Specifically, the control unit 140 compares the size of each divided area matched between the reference face area and the detected face area, and enlarges or expands each divided area of the detected face area based on each divided area of the reference face area. Determine the degree of reduction. Here, each of the divided regions to be matched means each divided region positioned in the same direction with respect to each of the first reference point and the second reference point. That is, in FIG. 4, each of the divided areas 1', 2', 3', and 4'of the detected face areas 420, 430, 440, and 450 are divided areas 1, 2, and 3 of the reference face area 410. It can be seen as matching each of ,4.

그리고, 제어부(140)는 판단된 확대 또는 축소 정도에 따라 매칭되는 그래픽 요소의 분할 영역을 늘이거나 또는 줄여 그래픽 요소의 형태를 변경할 수 있다. 여기에서, 매칭되는 그래픽 요소의 분할 영역이란, 제1 기준점 및 기준 위치 각각을 기준으로 동일한 방향에 위치하는 각 분할 영역을 의미한다. 즉, 도 4 및 도 6에서, 그래픽 요소(460)의 각 분할 영역 1'',2'',3'',4''은 기준 얼굴 영역(410)의 각 분할 영역 1,2,3,4에 각각 매칭되는 것으로 볼 수 있다. In addition, the control unit 140 may change the shape of the graphic element by increasing or decreasing the divided area of the matching graphic element according to the determined degree of enlargement or reduction. Here, the divided areas of matching graphic elements means each divided area located in the same direction based on each of the first reference point and the reference position. That is, in FIGS. 4 and 6, each divided area 1 ″, 2 ″, 3 ″, 4 ″ of the graphic element 460 is divided into 1, 2, 3, and 3 of the reference face area 410, It can be seen as matching each of 4.

구체적으로, 제어부(140)는 그래픽 요소의 형태를 변경하기 위해, 검출된 얼굴 영역이 회전된 방향을 판단한다(S340-Y). Specifically, the controller 140 determines the direction in which the detected face area is rotated in order to change the shape of the graphic element (S340-Y).

이에 따라, 제어부(140)는 검출된 얼굴 영역이 y축을 중심으로 회전된 것으로 판단되면(S340-Y), 세로선을 기준으로 분할된 각 분할 영역의 크기를 비교한다(S351). 즉, 제어부(140)는 기준 얼굴 영역(410)에서 세로선을 기준으로 분할된 영역 1 + 영역 3의 크기와 검출된 얼굴 영역(420, 440, 440, 450)에서 세로선을 기준으로 분할된 영역 1' + 영역 3'의 크기를 비교한다. 또한, 제어부(140)는 기준 얼굴 영역(410)에서 세로선을 기준으로 분할된 영역 2 + 영역 4의 크기와 검출된 얼굴 영역(420, 440, 440, 450)에서 세로선을 기준으로 분할된 영역 2' + 영역 4'의 크기를 비교한다.Accordingly, if it is determined that the detected face area is rotated around the y-axis (S340-Y), the controller 140 compares the size of each divided area divided based on the vertical line (S351). That is, the controller 140 includes the size of the area 1 + area 3 divided based on the vertical line in the reference face area 410 and the area 1 divided based on the vertical line in the detected face areas 420, 440, 440, 450 Compare the size of'+ area 3'. In addition, the controller 140 includes the size of the area 2 + area 4 divided based on the vertical line in the reference face area 410 and the area 2 divided based on the vertical line in the detected face areas 420, 440, 440, 450. Compare the size of'+area 4'.

그에 따라, 제어부(140)는 검출된 얼굴 영역의 영역 1' + 영역 3'의 크기가 기준 얼굴 영역의 영역 1 + 영역 3의 크기보다 줄어든 것으로 판단되면(S352-Y), 그래픽 요소의 영역 1'' + 영역 3''을 줄이고, 영역 2'' + 영역 4''를 늘려서 그래픽 요소의 형태를 변형시킬 수 있다(S353). Accordingly, if the control unit 140 determines that the size of the detected face area area 1'+ area 3'is smaller than the size of the reference face area area 1 + area 3 (S352-Y), the graphic element area 1 The shape of the graphic element can be changed by reducing ``+ area 3'' and increasing area 2'' + area 4'' (S353).

즉, 도 4의 (b)와 같이 검출된 얼굴 영역(420)이 좌측 방향을 바라보는 경우, 검출된 얼굴 영역(420)의 영역 1' + 영역 3'의 크기는 기준 얼굴 영역(410)의 영역 1 + 영역 3보다 작아지게 된다. 이 경우, 제어부(140)는 도 6의 (b)와 같이 그래픽 요소의 영역 1'' + 영역 3''을 줄이고 영역 2'' + 영역 4''를 늘려, 형태가 변형된 그래픽 요소(470)를 생성할 수 있다. That is, when the detected face area 420 looks to the left as shown in FIG. 4B, the size of area 1'+ area 3'of the detected face area 420 is the size of the reference face area 410. It becomes smaller than area 1 + area 3. In this case, the control unit 140 reduces the area 1'' + area 3'' of the graphic element and increases the area 2'' + area 4'' as shown in (b) of FIG. 6, so that the shape of the graphic element 470 ) Can be created.

이때, 제어부(140)는 검출된 얼굴 영역(420)에서 세로선을 기준으로 분할된 영역의 크기가 확대된 정도 및 축소된 정도에 기초하여, 그래픽 요소에서 세로선을 기준으로 분할된 영역을 늘리거나 줄일 수 있다.In this case, the controller 140 increases or decreases the area divided based on the vertical line in the graphic element, based on the extent to which the size of the area divided based on the vertical line in the detected face area 420 is enlarged and reduced. I can.

예를 들어, 도 4에서, 검출된 얼굴 영역(420)의 영역 1' + 영역 3'의 크기가 기준 얼굴 영역(410)의 영역 1 + 영역 3의 크기를 기준으로 a% 만큼 축소되었고, 검출된 얼굴 영역(420)의 영역 2' + 영역 4'으 크기가 기준 얼굴 영역(410)의 영역 2' + 영역 4'의 크기를 기준으로 b% 만큼 확대된 경우를 가정한다. 이 경우, 제어부(140)는 그래픽 요소의 영역 1'' + 영역 3''을 a% 만큼 줄이고 영역 2'' + 영역 4''를 b% 만큼 늘릴 수 있다.For example, in FIG. 4, the size of area 1'+ area 3'of the detected face area 420 is reduced by a% based on the size of area 1 + area 3 of the reference face area 410, and detection It is assumed that the size of area 2'+ area 4'of the face area 420 is enlarged by b% based on the size of area 2'+ area 4'of the reference face area 410. In this case, the controller 140 may reduce area 1 ″ + area 3 ″ of the graphic element by a% and increase area 2 ″ + area 4 ″ by b%.

한편, 제어부(140)는 검출된 얼굴 영역의 영역 1' + 영역 3'의 크기가 기준 얼굴 영역의 영역 1 + 영역 3의 크기보다 확대된 것으로 판단되면(S352-N), 그래픽 요소의 영역 1'' + 영역 3''을 늘리고, 영역 2'' + 영역 4''를 줄여서 그래픽 요소의 형태를 변형시킬 수 있다(S354). On the other hand, if the control unit 140 determines that the size of the detected face area area 1'+ area 3'is larger than the size of the reference face area area 1 + area 3 (S352-N), the graphic element area 1 The shape of the graphic element may be changed by increasing ``+ area 3'' and reducing area 2'' + area 4'' (S354).

즉, 도 4의 (c)와 같이 검출된 얼굴 영역(430)이 우측 방향을 바라보는 경우, 검출된 얼굴 영역(430)의 영역 1' + 영역 3'의 크기는 기준 얼굴 영역(410)의 영역 1 + 영역 3보다 커지게 된다. 이 경우, 제어부(140)는 도 6의 (c)와 같이 그래픽 요소의 영역 1'' + 영역 3''을 늘리고 영역 2'' + 영역 4''를 줄여, 형태가 변형된 그래픽 요소(480)를 생성할 수 있다. That is, when the detected face area 430 looks to the right as shown in FIG. 4C, the size of area 1'+ area 3'of the detected face area 430 is the size of the reference face area 410. It becomes larger than area 1 + area 3. In this case, the control unit 140 increases the area 1'' + area 3'' of the graphic element and decreases the area 2'' + area 4'' as shown in (c) of FIG. 6, so that the shape of the graphic element 480 ) Can be created.

이때, 제어부(140)는 검출된 얼굴 영역(430)에서 세로선을 기준으로 분할된 영역의 크기가 확대된 정도 및 축소된 정도에 기초하여, 그래픽 요소에서 세로선을 기준으로 분할된 영역을 늘리거나 줄일 수 있다.In this case, the control unit 140 increases or decreases the area divided based on the vertical line in the graphic element based on the extent to which the size of the area divided based on the vertical line in the detected face area 430 is enlarged and reduced. I can.

예를 들어, 도 4에서, 검출된 얼굴 영역(430)의 영역 1' + 영역 3'의 크기가 기준 얼굴 영역(410)의 영역 1 + 영역 3의 크기를 기준으로 a% 만큼 확대되었고, 검출된 얼굴 영역(430)의 영역 2' + 영역 4'으 크기가 기준 얼굴 영역(410)의 영역 2' + 영역 4'의 크기를 기준으로 b% 만큼 축소된 경우를 가정한다. 이 경우, 제어부(140)는 그래픽 요소의 영역 1'' + 영역 3''을 a% 만큼 늘리고 영역 2'' + 영역 4''를 b% 만큼 줄일 수 있다.For example, in FIG. 4, the size of area 1'+ area 3'of the detected face area 430 is enlarged by a% based on the size of area 1 + area 3 of the reference face area 410, and detection It is assumed that the size of the area 2'+ area 4'of the face area 430 is reduced by b% based on the size of the area 2'+ area 4'of the reference face area 410. In this case, the controller 140 may increase the area 1 ″ + 3 ″ of the graphic element by a% and decrease the area 2 ″ + the area 4 ″ by b%.

한편, 제어부(140)는 검출된 얼굴 영역이 x축을 중심으로 회전된 것으로 판단되면(S340-Y), 가로선을 기준으로 분할된 각 분할 영역의 크기를 비교한다(S361). 즉, 제어부(140)는 기준 얼굴 영역(410)에서 가로선을 기준으로 분할된 영역 1 + 영역 2의 크기와 검출된 얼굴 영역(420, 440, 440, 450)에서 가로선을 기준으로 분할된 영역 1' + 영역 2'의 크기를 비교한다. 또한, 제어부(140)는 기준 얼굴 영역(410)에서 가로선을 기준으로 분할된 영역 3 + 영역 4의 크기와 검출된 얼굴 영역(420, 440, 440, 450)에서 가로선을 기준으로 분할된 영역 3' + 영역 4'의 크기를 비교한다.Meanwhile, if it is determined that the detected face region is rotated around the x-axis (S340-Y), the controller 140 compares the size of each divided region divided based on the horizontal line (S361). That is, the control unit 140 includes the size of the area 1 + area 2 divided by the horizontal line in the reference face area 410 and the area 1 divided by the horizontal line in the detected face areas 420, 440, 440, 450 Compare the size of'+ area 2'. In addition, the controller 140 includes the size of the area 3 + area 4 divided based on the horizontal line in the reference face area 410 and the area 3 divided based on the horizontal line in the detected face areas 420, 440, 440, 450. Compare the size of'+area 4'.

그에 따라, 제어부(140)는 검출된 얼굴 영역의 영역 1' + 영역 2'의 크기가 기준 얼굴 영역의 영역 1 + 영역 2의 크기보다 줄어든 것으로 판단되면(S362-Y), 그래픽 요소의 영역 1'' + 영역 2''을 줄이고, 영역 2'' + 영역 4''를 늘려서 그래픽 요소의 형태를 변형시킬 수 있다(S363). Accordingly, if the control unit 140 determines that the size of the detected face area area 1'+ area 2'is smaller than the size of the reference face area area 1 + area 2 (S362-Y), the graphic element area 1 The shape of the graphic element can be changed by reducing ``+ area 2'' and increasing area 2'' + area 4'' (S363).

즉, 도 4의 (d)와 같이 검출된 얼굴 영역(440)이 상측 방향을 바라보는 경우, 검출된 얼굴 영역(440)의 영역 1' + 영역 2'의 크기는 기준 얼굴 영역(410)의 영역 1 + 영역 2의 크기보다 작아지게 된다. 이 경우, 제어부(140)는 도 6의 (d)와 같이 그래픽 요소의 영역 1'' + 영역 2''을 줄이고 영역 3'' + 영역 4''를 늘려, 형태가 변형된 그래픽 요소(490)를 생성할 수 있다. That is, when the detected face area 440 looks upward as shown in FIG. 4(d), the size of the area 1'+ area 2'of the detected face area 440 is that of the reference face area 410. It becomes smaller than the size of area 1 + area 2. In this case, the controller 140 reduces the area 1'' + area 2'' of the graphic element and increases the area 3'' + area 4'' as shown in (d) of FIG. 6, so that the graphic element 490 ) Can be created.

이때, 제어부(140)는 검출된 얼굴 영역(440)에서 가로선을 기준으로 분할된 영역의 크기가 확대된 정도 및 축소된 정도에 기초하여, 그래픽 요소에서 가로선을 기준으로 분할된 영역을 늘리거나 줄일 수 있다.In this case, the control unit 140 increases or decreases the area divided based on the horizontal line in the graphic element based on the extent to which the size of the area divided based on the horizontal line in the detected face area 440 is enlarged and reduced. I can.

예를 들어, 도 4에서, 검출된 얼굴 영역(440)의 영역 1' + 영역 2'의 크기가 기준 얼굴 영역(410)의 영역 1 + 영역 2의 크기를 기준으로 a% 만큼 축소되었고, 검출된 얼굴 영역(440)의 영역 3' + 영역 4'으 크기가 기준 얼굴 영역(410)의 영역 3' + 영역 4'의 크기를 기준으로 b% 만큼 확대된 경우를 가정한다. 이 경우, 제어부(140)는 그래픽 요소의 영역 1'' + 영역 2''을 a% 만큼 줄이고 영역 3'' + 영역 4''를 b% 만큼 늘릴 수 있다.For example, in FIG. 4, the size of area 1'+ area 2'of the detected face area 440 is reduced by a% based on the size of area 1 + area 2 of the reference face area 410, and detection It is assumed that the size of the area 3'+ area 4'of the face area 440 is enlarged by b% based on the size of the area 3'+ area 4'of the reference face area 410. In this case, the controller 140 may reduce the area 1 ″ + area 2 ″ of the graphic element by a% and increase the area 3 ″ + the area 4 ″ by b%.

한편, 제어부(140)는 검출된 얼굴 영역의 영역 1' + 영역 2'의 크기가 기준 얼굴 영역의 영역 1 + 영역 2의 크기보다 확대된 것으로 판단되면(S362-N), 그래픽 요소의 영역 1'' + 영역 2''을 늘리고, 영역 2'' + 영역 4''를 줄여서 그래픽 요소의 형태를 변형시킬 수 있다(S364). Meanwhile, if it is determined that the size of the detected face area area 1'+ area 2'is larger than the size of the reference face area area 1 + area 2 (S362-N), the control unit 140 The shape of the graphic element can be changed by increasing ``+ area 2'' and reducing area 2'' + area 4'' (S364).

즉, 도 4의 (e)와 같이 검출된 얼굴 영역(450)이 하측 방향을 바라보는 경우, 검출된 얼굴 영역(450)의 영역 1' + 영역 2'의 크기는 기준 얼굴 영역(410)의 영역 1 + 영역 2의 크기보다 커지게 된다. 이 경우, 제어부(140)는 도 6의 (e)와 같이 그래픽 요소의 영역 1'' + 영역 2''을 늘리고 영역 3'' + 영역 4''를 줄여, 형태가 변형된 그래픽 요소(510)를 생성할 수 있다. That is, as shown in (e) of FIG. 4, when the detected face area 450 looks downward, the size of the area 1'+ area 2'of the detected face area 450 is that of the reference face area 410 It becomes larger than the size of area 1 + area 2. In this case, the controller 140 increases the area 1'' + area 2'' of the graphic element and decreases the area 3'' + area 4'' as shown in (e) of FIG. ) Can be created.

이때, 제어부(140)는 검출된 얼굴 영역(450)에서 가로선을 기준으로 분할된 영역의 크기가 확대된 정도 및 축소된 정도에 기초하여, 그래픽 요소에서 가로선을 기준으로 분할된 영역을 늘리거나 줄일 수 있다.In this case, the control unit 140 increases or decreases the area divided based on the horizontal line in the graphic element based on the extent to which the size of the area divided based on the horizontal line in the detected face area 450 is enlarged and reduced. I can.

예를 들어, 도 4에서, 검출된 얼굴 영역(450)의 영역 1' + 영역 2'의 크기가 기준 얼굴 영역(410)의 영역 1 + 영역 2의 크기를 기준으로 a% 만큼 확대되었고, 검출된 얼굴 영역(450)의 영역 3' + 영역 4'의 크기가 기준 얼굴 영역(410)의 영역 3' + 영역 4'의 크기를 기준으로 b% 만큼 축소된 경우를 가정한다. 이 경우, 제어부(140)는 그래픽 요소의 영역 1'' + 영역 2''을 a% 만큼 늘리고 영역 3'' + 영역 4''를 b% 만큼 줄일 수 있다.For example, in FIG. 4, the size of area 1'+ area 2'of the detected face area 450 is enlarged by a% based on the size of area 1 + area 2 of the reference face area 410, and detection It is assumed that the size of area 3'+ area 4'of the face area 450 is reduced by b% based on the size of area 3'+ area 4'of the reference face area 410. In this case, the controller 140 may increase the area 1 ″ + area 2 ″ of the graphic element by a% and decrease the area 3 ″ + the area 4 ″ by b%.

그리고, 제어부(140)는 형태가 변경된 그래픽 요소의 기준 위치를 제2 기준점에 매칭시켜 검출된 얼굴 영역에 오버랩하여 디스플레이하도록 제어할 수 있다. 즉, 제어부(140)는 형태가 변경된 그래픽 요소의 기준 위치가 검출된 얼굴 영역에서 제2 기준점에 위치하도록, 그래픽 요소를 검출된 얼굴 영역에 오버랩하여 디스플레이할 수 있다. In addition, the controller 140 may control to match the reference position of the graphic element whose shape has been changed with the second reference point to overlap the detected face area and display it. That is, the controller 140 may overlap and display the graphic element on the detected face area so that the reference position of the graphic element whose shape has been changed is positioned at the second reference point in the detected face area.

예를 들어, 도 7은 마스크를 얼굴 영역에 오버랩한 경우를 나타낸다.For example, FIG. 7 shows a case where a mask is overlapped on a face area.

구체적으로, 도 7의 (a)는 기준 얼굴 영역(410)에 마스크(460)를 오버랩한 경우이고, 도 7의 (b) 내지 (e)는 검출된 얼굴 영역(420, 430, 440, 450)에 형태가 변형된 마스크(470, 480, 490, 510)를 각각 오버랩한 경우를 나타낸다.Specifically, (a) of FIG. 7 is a case where the mask 460 is overlapped with the reference face region 410, and (b) to (e) of FIG. 7 are detected face regions 420, 430, 440, and 450. ) Shows the case of overlapping the modified masks 470, 480, 490, and 510, respectively.

이 경우, 제어부(140)는 형태가 변형된 마스크의 기준 위치(471, 481, 491, 511)가 검출된 얼굴 영역(420, 430, 440, 450)에서 제2 기준점(421, 431, 441, 451)에 위치하도록, 크기가 변형된 마스크(470, 480, 490, 510)를 검출된 얼굴 영역(420, 430, 440, 450)에 각각 오버랩하여 디스플레이할 수 있다. In this case, the controller 140 controls the second reference points 421, 431, 441, in the face regions 420, 430, 440, 450 in which the reference positions 471, 481, 491, and 511 of the mask whose shape has been deformed are detected. The masks 470, 480, 490, and 510 whose sizes have been deformed so as to be positioned on the 451 may be displayed by overlapping the detected face regions 420, 430, 440, and 450, respectively.

한편, 상술한 예에서는 검출된 얼굴 영역이 기준 얼굴 영역에서 x축 또는 y축을 중심으로 회전한 것을 설명하였으나 이는 일 예에 불과하다. 즉, x축 및 y축 즉, 양 축을 중심으로 회전한 경우에도, 도 3 내지 도 7에서 설명한 방식이 동일하게 적용될 수 있다. 즉, 제어부(140)는 각 분할 영역의 크기에 기초하여, 그래픽 요소의 영역 1 + 영역 3 및 영역 2 + 영역 4를 늘리거나 줄이고 그래픽 요소의 영역 1 + 영역 2 및 영역 3 + 영역 4를 늘리거나 줄여, 그래픽 요소의 형태를 변경시킬 수 있다. Meanwhile, in the above-described example, it has been described that the detected face area is rotated around the x-axis or y-axis in the reference face area, but this is only an example. That is, even when the x-axis and y-axis, that is, rotated around both axes, the method described in FIGS. 3 to 7 may be applied in the same manner. That is, the control unit 140 increases or decreases area 1 + area 3 and area 2 + area 4 of the graphic element based on the size of each divided area, and increases area 1 + area 2 and area 3 + area 4 of the graphic element. By reducing or decreasing, the shape of the graphic element can be changed.

또한, 상술한 예에는 오버랩될 그래픽 요소로 마스크가 선택된 경우 즉, 그래픽 요소의 기준 위치가 제1 기준점과 동일한 경우를 설명하였다. 하지만, 제어부(140)는 기준 위치가 제1 기준점과 동일하지 않은 그래픽 요소에 대해서도, 검출된 얼굴 영역에 대응되도록 그 형태를 변경할 수 있다.In addition, in the above-described example, a case in which a mask is selected as a graphic element to be overlapped, that is, a reference position of the graphic element is the same as the first reference point. However, even for a graphic element whose reference position is not the same as the first reference point, the control unit 140 may change its shape to correspond to the detected face area.

예를 들어, 도 2의 (d)에 도시된 바와 같이, 콧수염이 그러한 경우이다. 이 경우, 제어부(140)는 기준 얼굴 영역에서 코와 입 사이의 중심을 제1 기준점으로 설정하고 검출된 얼굴 영역에서 코와 입 사이의 중심을 제1 기준점으로 설정하고, 상술한 방식과 동일한 방식을 이용하여 그래픽 요소의 형태를 변경할 수 있다. For example, as shown in Fig. 2(d), the mustache is such a case. In this case, the control unit 140 sets the center between the nose and the mouth in the reference face area as a first reference point, and sets the center between the nose and the mouth in the detected face area as the first reference point, and is the same method as described above. You can change the shape of the graphic element by using.

다만, 제어부(140)는 검출된 얼굴 영역이 상측 방향 및 하측 방향을 향하는 경우, 도 6의 (c) 및 (e)와 같이 그래픽 요소의 상부 또는 하부를 구분하여 늘리거나 줄이는 것이 아니라, 그래픽 요소 전체를 늘리거나 줄일 수 있다.However, when the detected face area faces upward and downward, the controller 140 does not divide or increase or decrease the upper or lower part of the graphic element as shown in FIGS. 6(c) and (e). You can increase or decrease the whole.

즉, 제어부(140)는 검출된 얼굴 영역의 영역 1' + 영역 2'의 크기가 기준 얼굴 영역의 영역 1 + 영역 2의 크기보다 축소된 것으로 판단되면, 그래픽 요소 전체를 세로 방향으로 늘릴 수 있다. 이때, 제어부(140)는 영역 1' + 영역 2'의 크기가 축소된 정도에 기초하여, 그래픽 요소 전체를 세로 방향으로 늘릴 수 있다.That is, if it is determined that the size of the detected face area area 1'+ area 2'is smaller than the size of the reference face area area 1 + area 2, the controller 140 may increase the entire graphic element in the vertical direction. . In this case, the controller 140 may increase the entire graphic element in the vertical direction based on the degree to which the size of the area 1'+ area 2'is reduced.

또한, 제어부(140)는 검출된 얼굴 영역의 영역 1' + 영역 2'의 크기가 기준 얼굴 영역의 영역 1 + 영역 2의 크기보다 확대된 것으로 판단되면, 그래픽 요소 전체를 세로 방향으로 줄일 수 있다. 이때, 제어부(140)는 영역 1' + 영역 2'의 크기가 축소된 정도에 기초하여, 그래픽 요소 전체를 세로 방향으로 줄일 수 있다.In addition, if it is determined that the size of the detected face area area 1'+ area 2'is larger than the size of the reference face area area 1 + area 2, the controller 140 may reduce the entire graphic element in the vertical direction. . In this case, the controller 140 may reduce the entire graphic element in the vertical direction based on the degree to which the size of the area 1'+ area 2'is reduced.

또한, 상술한 예에서는 기저장된 그래픽 요소의 형태를 변경하는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 제어부(140)는 사용자에 의해 그래픽 요소를 입력받고, 입력된 그래픽 요소의 형태를 변경하여 검출된 얼굴 영역에 오버랩하여 디스플레이되도록 제어할 수 있다. Further, in the above-described example, it has been described that the shape of a previously stored graphic element is changed, but this is only an example. That is, the controller 140 may receive a graphic element by a user, change the shape of the input graphic element, and control the detected face area to overlap and display.

도 8은 본 발명의 일 실시 예에 따라 사용자로부터 그래픽 요소를 입력받는 예를 설명하기 위한 흐름도이다.8 is a flowchart illustrating an example of receiving a graphic element from a user according to an embodiment of the present invention.

먼저, 그래픽 요소 입력 모드를 실행하기 위한 사용자 명령이 입력되면(S610), 제어부(140)는 사용자 명령에 따라 이미지를 캡쳐하여 디스플레이부(120)에 디스플레이할 수 있다. 예를 들어, 디스플레이부(120)에 디스플레이되고 있는 이미지를 캡쳐하기 위한 사용자 명령이 입력되면, 제어부(140)는 캡쳐된 이미지가 기존에 디스플레이되던 이미지와 함께 디스플레이되도록, 캡쳐된 이미지를 디스플레이부(120)의 일 영역에 디스플레이할 수 있다.First, when a user command for executing the graphic element input mode is input (S610), the controller 140 may capture an image according to the user command and display it on the display 120. For example, when a user command for capturing an image being displayed on the display unit 120 is input, the controller 140 displays the captured image so that the captured image is displayed together with the previously displayed image. 120) may be displayed.

이 경우, 검출부(130)는 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 검출한다. 이때, 검출부(130)는 도 1에서 설명한 다양한 방식을 이용하여, 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 검출할 수 있다.In this case, the detection unit 130 detects the user's face area included in the captured image. In this case, the detection unit 130 may detect the user's face region included in the captured image using various methods described in FIG. 1.

그리고, 제어부(140)는 그래픽 요소 입력 모드를 종료하기 위한 사용자 명령이 입력되면(S620-Y), 그래픽 요소의 입력이 완료된 것으로 판단한다. 이 경우, 제어부(140)는 캡쳐된 이미지에 오버랩되도록 입력된 그래픽 요소 및 입력된 그래픽 요소가 캡쳐된 이미지에 포함된 사용자의 얼굴 영역에서 오버랩된 위치 정보를 저장하도록 저장부(110)를 제어할 수 있다(S630).In addition, when a user command for terminating the graphic element input mode is input (S620-Y), the controller 140 determines that the input of the graphic element has been completed. In this case, the control unit 140 controls the storage unit 110 to store the input graphic element to overlap the captured image and the location information of the user's face included in the captured image. Can be (S630).

예를 들어, 디스플레이부(120)가 터치 스크린 형태로 구현된 경우, 사용자는 터치 조작을 통해 캡쳐된 이미지 상에 그래픽 요소를 오버랩하여 그릴 수 있다. 이 경우, 제어부(140)는 사용자의 터치 조작이 이루어진 지점을 따라 일정한 선 또는 면이 표시되도록 제어할 수 있다. For example, when the display unit 120 is implemented in the form of a touch screen, the user may overlap and draw a graphic element on an image captured through touch manipulation. In this case, the controller 140 may control a certain line or surface to be displayed along a point where a user's touch manipulation is performed.

그리고, 제어부(140)는 사용자에 의해 입력된 그래픽 요소를 저장부(110)에 저장할 수 있다. 이때, 제어부(140)는 사용자에 의해 입력된 그래픽 요소가 얼굴 영역에 오버랩된 위치 정보를, 각 그래픽 요소에 매칭시켜 저장부(110)에 저장할 수 있다. In addition, the controller 140 may store a graphic element input by a user in the storage unit 110. In this case, the controller 140 may match the positional information in which the graphic element input by the user overlaps the face area, and store it in the storage unit 110 by matching each graphic element.

구체적으로, 제어부(140)는 사용자에 의해 입력된 그래픽 요소의 기준점을 설정하고, 그래픽 요소의 기준점이 캡쳐된 이미지 내의 얼굴 영역에서 오버랩되는 지점에 대한 위치 정보를 저장할 수 있다.Specifically, the controller 140 may set a reference point of a graphic element input by a user, and store location information on a point where the reference point of the graphic element overlaps in the face area in the captured image.

예를 들어, 사용자에 의해 입력된 그래픽 요소가 두 눈 사이의 중심을 포함하는 경우, 제어부(140)는 그래픽 요소에서 두 눈 사이의 중심을 지나는 지점을 기준점으로 설정하고, 기준점이 두 눈의 중심에 위치하도록 입력된 그래픽 요소에 대한 위치 정보를 저장할 수 있다. 다른 예로, 사용자에 의해 입력된 그래픽 요소가 코와 입 사이의 중심을 포함하는 경우, 제어부(140)는 그래픽 요소에서 코와 입 사이의 중심을 지점을 기준점으로 설정하고, 기준점이 코와 입 사이의 중심에 위치하도록 입력된 그래픽 요소에 대한 정보를 저장할 수 있다. For example, when a graphic element input by a user includes a center between two eyes, the controller 140 sets a point passing through the center between two eyes in the graphic element as a reference point, and the reference point is the center of the two eyes. It is possible to store the location information for the graphic element input to be located at. As another example, when the graphic element input by the user includes the center between the nose and the mouth, the controller 140 sets the center between the nose and the mouth in the graphic element as a reference point, and the reference point is between the nose and the mouth. Information on the input graphic elements can be stored to be located in the center of the.

그리고, 제어부(140)는 사용자에 의해 입력된 그래픽 요소를 이미지에서 검출된 얼굴 영역에 오버랩하여 디스플레이한다(S640).Then, the controller 140 displays the graphic element input by the user by overlapping the face area detected in the image (S640).

이를 위해, 제어부(140)는 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 기준 얼굴 영역으로 설정할 수 있다. 그리고, 제어부(140)는 새롭게 설정된 기준 영역이 향하는 방향을 기준으로 검출된 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형하고, 변형된 그래픽 요소를 이미지 내의 얼굴 영역에 오버랩하여 디스플레이하도록 제어할 수 있다.To this end, the controller 140 may set the user's face area included in the captured image as the reference face area. In addition, the controller 140 may control a graphic element to be deformed according to a direction in which the detected face region faces based on a direction in which the newly set reference region faces, and to overlap and display the transformed graphic element on the face region in the image. .

여기에서, 그래픽 요소는 사용자에 의해 입력된 그래픽 요소일 수 있다.Here, the graphic element may be a graphic element input by a user.

구체적으로, 제어부(140)는 기설정된 얼굴 구성 요소에 기초하여 기준 얼굴 영역 및 검출된 얼굴 영역 각각에 대한 제1 및 제2 기준점을 설정하고, 제1 기준점을 기준으로 제2 기준점의 상대적인 위치를 결정하며, 결정된 상대적인 위치에 기초하여 그래픽 요소를 변형할 수 있다.Specifically, the controller 140 sets first and second reference points for each of the reference face area and the detected face area based on a preset face component, and determines the relative position of the second reference point based on the first reference point. It is determined, and the graphic element can be transformed based on the determined relative position.

이 경우, 제어부(140)는 제1 기준점을 기준으로 기준 얼굴 영역을 복수의 영역으로 분할하고, 제2 기준점을 기준으로 검출된 얼굴 영역을 복수의 영역으로 분할하며, 제1 기준점을 기준으로 분할된 복수의 영역 및 제2 기준점을 기준으로 분할된 복수의 영역 각각의 크기를 비교하고, 비교 결과에 기초하여, 그래픽 요소의 형태를 변경할 수 있다.In this case, the controller 140 divides the reference face region into a plurality of regions based on the first reference point, divides the face region detected based on the second reference point into a plurality of regions, and divides the face region based on the first reference point. The sizes of each of the plurality of areas and the plurality of areas divided based on the second reference point may be compared, and the shape of the graphic element may be changed based on the comparison result.

그리고, 제어부(140)는 형태가 변경된 그래픽 요소의 기준 위치를 제2 기준점에 매칭시켜 검출된 얼굴 영역에 오버랩하여 디스플레이하도록 제어할 수 있다In addition, the controller 140 may control to match the reference position of the graphic element whose shape has been changed with the second reference point to overlap the detected face area and display it.

즉, 사용자에 의해 그래픽 요소가 입력된 경우, 제어부(140)는 그래픽 요소 입력을 위해 캡쳐된 이미지에서 검출된 얼굴 영역을 기준 얼굴 영역으로 설정하고, 캡쳐된 이미지에서 검출된 얼굴 영역이 향하는 방향을 기준으로 검출된 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형할 수 있다.That is, when a graphic element is input by the user, the controller 140 sets the face area detected in the captured image for inputting the graphic element as the reference face area, and determines the direction in which the face area detected in the captured image faces. The graphic element may be transformed according to the direction in which the face region detected as a reference faces.

이 경우, 그래픽 요소의 형태를 변경하는 방법은 도 3 내지 도 7에서 기준 얼굴 영역이 캡쳐된 이미지에서 검출된 얼굴 영역인 경우와 동일하므로, 구체적인 설명은 생략하도록 한다.In this case, since the method of changing the shape of the graphic element is the same as in the case where the reference face region is the face region detected in the captured image in FIGS. 3 to 7, a detailed description will be omitted.

도 9는 본 발명의 일 실시 예에 따른 디스플레이 장치의 세부 구성을 설명하기 위한 블록도이다. 도 9에 따르면, 디스플레이 장치(100)는 저장부(110), 디스플레이부(120), 검출부(130), 제어부(140), 입력부(150), GUI 처리부(160), 통신부(170), 감지부(180), 오디오 처리부(191), 비디오 처리부(192), 스피커(193), USB 포트(194), 카메라(195), 마이크(196)를 포함한다. 도 9에 도시된 구성요소들 중 도 1에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다. 9 is a block diagram illustrating a detailed configuration of a display device according to an embodiment of the present invention. According to FIG. 9, the display device 100 includes a storage unit 110, a display unit 120, a detection unit 130, a control unit 140, an input unit 150, a GUI processing unit 160, a communication unit 170, and a detection unit. A unit 180, an audio processing unit 191, a video processing unit 192, a speaker 193, a USB port 194, a camera 195, and a microphone 196 are included. Among the components shown in FIG. 9, detailed descriptions of parts that overlap with the components shown in FIG. 1 will be omitted.

한편, 상술한 제어부(140)의 동작은 저장부(110)에 저장된 프로그램에 의해 이루어질 수 있다. 저장부(110)에는 디스플레이 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 각종 어플리케이션, 어플리케이션 실행 중에 입력되거나 설정되는 각종 데이터, 컨텐츠 등과 같이 다양한 데이터가 저장될 수 있다. Meanwhile, the operation of the control unit 140 described above may be performed by a program stored in the storage unit 110. The storage unit 110 may store various data such as an O/S (Operating System) software module for driving the display device 100, various applications, various data input or set during application execution, and contents.

입력부(150)는 다양한 사용자 명령을 입력받기 위한 구성이다. 특히, 입력부(150)는 디스플레이부(110)에 디스플레이된 이미지 상에 그래픽 요소를 오버랩하기 위한 사용자 명령, 그래픽 요소를 선택하기 위한 사용자 명령, 그래픽 요소 입력 모드 실행을 위한 사용자 명령, 그래픽 요소 입력 모드를 종료하기 위한 사용자 명령, 화상 통화와 관련된 사용자 명령 등 다양한 사용자 명령을 입력받을 수 있다.The input unit 150 is a component for receiving various user commands. In particular, the input unit 150 includes a user command for overlapping a graphic element on an image displayed on the display unit 110, a user command for selecting a graphic element, a user command for executing a graphic element input mode, and a graphic element input mode. Various user commands, such as a user command for terminating a video call and a user command related to a video call, may be input.

이를 위해, 입력부(150)는 키버튼, 키패드 등으로 구현되거나 리모컨과 같은 원격제어장치(미도시)로부터 전송되는 명령을 수신하도록 구현될 수 있다.To this end, the input unit 150 may be implemented as a key button, a keypad, or the like, or may be implemented to receive a command transmitted from a remote control device (not shown) such as a remote control.

특히, 디스플레이부(120)가 터치 스크린 형태로 구현되는 경우, 디스플레이부(120)는 출력 장치 이외에 다양한 사용자 명령을 입력받기 입력부(150)로서 사용될 수 있게 된다. 이 경우, 디스플레이부(120)는 사용자 명령을 입력받기 위한 GUI를 디스플레이할 수 있다.In particular, when the display unit 120 is implemented in the form of a touch screen, the display unit 120 can be used as the input unit 150 to receive input of various user commands other than the output device. In this case, the display 120 may display a GUI for receiving a user command.

GUI 처리부(160)는 다양한 GUI를 생성한다. 예를 들어, 디스플레이부(120)가 터치 스크린 형태로 구현되는 경우, GUI 처리부(160)는 다양한 사용자 명령을 입력받기 위한 GUI를 생성하여 디스플레이부(120)로 제공할 수 있다.The GUI processing unit 160 generates various GUIs. For example, when the display unit 120 is implemented in the form of a touch screen, the GUI processing unit 160 may generate a GUI for receiving various user commands and provide it to the display unit 120.

통신부(170)는 네트워크를 통해 외부 기기(미도시)와 통신을 수행하기 위한 구성이다. 예를 들어, 통신부(170)는 유/무선 LAN, WAN, 이더넷, 블루투스(Bluetooth), 지그비(Zigbee), USB(Universal Serial Bus), IEEE 1394, 와이파이(Wifi) 또는 PLC(Power Line Communication) 등을 이용하여, 다른 디스플레이 장치(미도시) 및 외부 서버(미도시)와 통신을 수행할 수 있다. The communication unit 170 is a component for performing communication with an external device (not shown) through a network. For example, the communication unit 170 may include wired/wireless LAN, WAN, Ethernet, Bluetooth, Zigbee, USB (Universal Serial Bus), IEEE 1394, Wi-Fi or PLC (Power Line Communication), etc. Using, it is possible to communicate with other display devices (not shown) and external servers (not shown).

이를 위해, 통신부(170)는 각 통신 방식에 대응되는 칩 또는 외부 입력 포트 등을 구비할 수 있다. To this end, the communication unit 170 may include a chip or an external input port corresponding to each communication method.

특히, 통신부(170)는 외부 디스플레이 장치(미도시)와 통신을 수행하여, 화상 통화 수행을 위한 다양한 데이터를 송수신할 수 있다. 구체적으로, 통신부(170)는 외부 디스플레이 장치(미도시)로부터 화상 통화 영상 및 사용자 음성을 수신하고, 카메라(195)에서 촬영된 화상 통화 영상 및 마이크(196)에서 수집된 사용자 음성을 외부 디스플레이 장치(미도시)로 전송할 수 있다.In particular, the communication unit 170 may perform communication with an external display device (not shown) to transmit and receive various data for performing a video call. Specifically, the communication unit 170 receives a video call image and a user voice from an external display device (not shown), and a video call image captured by the camera 195 and a user voice collected from the microphone 196 are transmitted to the external display device. Can be transmitted to (not shown).

여기에서, 통신부(170)는 VoBB(voice over broadband) 또는 레거시(legacy) 서비스 등을 이용하여 외부 디스플레이 장치(미도시)와 화상 통화를 위한 데이터를 송수신할 수 있다. 구체적으로, VoBB는 VoCM(voice over cable modem), VoDSL(voice over DSL), VoIP(voice over Internet protocol), FWA(fixed wireless access), FTTH(fiber to the home) 또는 VoATM(voice over ATM) 등의 서비스를 포함할 수 있다. 한편, 레거시 서비스는 ISDN(integrated service digital network), POTS(plain old telephone service), 셀룰러 또는 3G 서비스 등을 포함할 수 있다.Here, the communication unit 170 may transmit/receive data for a video call with an external display device (not shown) using a voice over broadband (VoBB) or legacy service. Specifically, VoBB includes voice over cable modem (VoCM), voice over DSL (VoDSL), voice over Internet protocol (VoIP), fixed wireless access (FWA), fiber to the home (FTTH), or voice over ATM (VoATM). May include services of. Meanwhile, the legacy service may include an integrated service digital network (ISDN), a plain old telephone service (POTS), a cellular or 3G service, and the like.

그에 따라, 디스플레이 장치(100)는 외부 디스플레이 장치(미도시)는 무선 네트워크, 종래의 전화 네트워크, 인터넷(internet) 등과 같은 데이터 네트워크, 케이블 모뎀 시스템 또는 셀룰러 네트워크 등을 이용해 화상 통화 영상 및 사용자 음성을 송수신할 수 있다.Accordingly, the display device 100 uses a wireless network, a conventional telephone network, a data network such as the Internet, a cable modem system, a cellular network, etc. to transmit a video call image and a user's voice. You can send and receive.

예를 들어, 디스플레이 장치(100)가 인터넷을 통해 외부 디스플레이 장치(미도시)가 화상 통화를 수행하는 경우, 인터넷에는 화상 통화를 제공하는 업체의 화상통화 서버가 존재하게 된다. 예를 들어, 디스플레이 장치(100)와 외부 디스플레이 장치(미도시) 사이에 인터넷 전화를 통해 화상 통화를 이용하는 경우, 인터넷 상에서 VoIP(Voice over Internet Protocol) 또는 MoIP(Multimedia over Internet Protocol)를 이용한 인터넷 전화 서비스를 제공하는 업체의 서버가 존재하게 된다. For example, when the display apparatus 100 performs a video call by an external display device (not shown) through the Internet, a video call server of a company providing the video call exists on the Internet. For example, when using a video call through an Internet phone between the display device 100 and an external display device (not shown), an Internet phone call using VoIP (Voice over Internet Protocol) or MoIP (Multimedia over Internet Protocol) over the Internet Servers of companies providing services exist.

이와 같이, 전화 서비스 제공 업체의 서버를 통해 디스플레이 장치(100)와 외부 디스플레이 장치(미도시) 사이에 화상 통화를 위한 데이터를 송수신할 수 있게 된다. 또한, 전화 서비스 제공 업체를 통해 디스플레이 장치(100)와 외부 디스플레이 장치(미도시)는 전화번호를 할당받을 수도 있게 된다.In this way, data for a video call can be transmitted and received between the display device 100 and an external display device (not shown) through a server of a telephone service provider. In addition, the display device 100 and an external display device (not shown) may be assigned a phone number through a phone service provider.

한편, 디스플레이 장치(100)와 외부 디스플레이 장치(미도시)는 서로 간에 설정된 규격에 따라 화상 통화 영상 및 사용자 음성을 송수신할 수 있으며, 예를 들어, 화상 통화 영상의 코딩을 위한 H.261 표준, 화상 통화 영상 및 사용자 음성의 통신을 H.221 표준 및 호출 설정 및 해제를 위한 H.242 표준 등과 같은 프로토콜들을 이용할 수 있다. 좀 더 구체적으로, 인터넷 망을 이용한 화상 통신 시스템의 경우, 영상 코딩을 위한 H.323, H.263 및 H264 표준과 음성 코딩을 위한 G723.1, G.711 및 G.729 등과 같은 화상 통신 표준에서 구현된 프로토콜들이 이용될 수도 있다.Meanwhile, the display device 100 and an external display device (not shown) can transmit and receive a video call image and a user's voice according to standards set therebetween. For example, the H.261 standard for coding a video call image, Protocols such as the H.221 standard and the H.242 standard for setting and canceling calls can be used for communication of video and user voices for video calls. More specifically, in the case of a video communication system using an Internet network, video communication standards such as H.323, H.263 and H264 standards for video coding and G723.1, G.711 and G.729 for voice coding, etc. Protocols implemented in may be used.

그러나, 화상 통화 수행을 위한 통신 서비스는 이와 같은 구성에 한정되지 않는다. 예를 들어, 디스플레이 장치(100)와 외부 디스플레이 장치(미도시)는 상술한 바와 같은 표준 이외에 SIP, RTP/RTCP 프로토콜과 같은 표준들을 이용할 수도 있으며, 공지된 다양한 화상 통화를 위한 통신 서비스를 이용할 수 있음은 물론이다.However, the communication service for performing a video call is not limited to this configuration. For example, the display device 100 and an external display device (not shown) may use standards such as SIP and RTP/RTCP protocols in addition to the above-described standards, and can use communication services for various known video calls. Yes, of course.

감지부(180)는 디스플레이 장치(100)에 대한 터치, 모션, 회전, 기울기, 압력, 접근 등과 같은 다양한 조작을 감지할 수 있다.The sensing unit 180 may detect various manipulations such as touch, motion, rotation, tilt, pressure, and approach to the display device 100.

특히, 감지부(180)는 터치를 감지하는 터치 센서를 포함할 수 있다. 터치 센서는 정전식 또는 감압식으로 구현될 수 있다. 정전식은 디스플레이부(120) 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 디스플레이부(120) 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 이상과 같이 터치 센서는 다양한 형태로 구현될 수 있다. In particular, the sensing unit 180 may include a touch sensor that senses a touch. The touch sensor may be implemented in a capacitive type or a pressure sensitive type. In the capacitive type, when a part of the user's body touches the surface of the display unit 120 by using a dielectric coated on the surface of the display unit 120, the touch coordinates are calculated by sensing microelectricity excited by the user's human body. The pressure-sensitive type includes two electrode plates, and when a user touches the screen, the touch coordinates are calculated by sensing that the upper and lower plates of the touched point touch and current flows. As described above, the touch sensor may be implemented in various forms.

또한, 감지부(180)는 디스플레이 장치(100)에 대한 사용자 모션을 감지하기 위한 지자기 센서, 자이로 센서, 가속도 센서 등을 포함할 수 있다. 여기서, 지자기 센서는 디스플레이 장치(100)의 회전 상태 및 이동 방향 등을 감지하고, 자이로 센서는 디스플레이 장치(100)의 회전 상태를 감지하고, 가속도 센서는 디스플레이 장치(100)의 기울어짐 등을 감지하기 위한 센서이다.In addition, the sensing unit 180 may include a geomagnetic sensor, a gyro sensor, an acceleration sensor, or the like for detecting a user's motion with respect to the display device 100. Here, the geomagnetic sensor detects the rotation state and movement direction of the display device 100, the gyro sensor detects the rotation state of the display device 100, and the acceleration sensor detects the inclination of the display device 100, etc. It is a sensor to do.

또한, 감지부(180)는 통해 GUI에 대한 터치가 감지되는 경우, 제어부(140)는 해당 항목의 기능에 대응되는 동작을 수행할 수 있다. 예를 들어, 제어부(140)는 감지부(180)의 감지 결과에 기초하여 선택된 GUI와 대한 사용자 명령을 판단하고, 그에 대응되는 동작을 수행하도록 제어할 수 있다.In addition, when a touch on the GUI is sensed through the sensing unit 180, the controller 140 may perform an operation corresponding to the function of the corresponding item. For example, the controller 140 may determine a user command for a selected GUI based on a detection result of the detection unit 180 and control to perform an operation corresponding thereto.

가령, 제어부(140)는 화상 통화 수행을 위한 사용자 명령이 입력되면, 카메라(195)를 통해 화상 통화 영상을 촬영하고 마이크(196)를 통해 사용자 음성을 수집할 수 있다. 그리고, 제어부(140)는 촬영된 화상 통화 영상 및 수집된 사용자 영상을 외부 디스플레이 장치(미도시)로 전송하도록 통신부(170)를 제어할 수 있다. 또한, 제어부(140)는 외부 디스플레이 장치(미도시)로부터 수신된 화상 통화 영상을 디스플레이부(120)에서 출력 가능한 형태로 처리하도록 비디오 처리부(192)를 제어하고, 처리된 화상 통화 영상을 디스플레이하도록 디스플레이부(120)를 제어할 수 있다. 그리고, 제어부(140)는 외부 디스플레이 장치(미도시)로부터 수신된 사용자 음성을 스피커(193)에서 출력 가능한 형태로 처리하도록 오디오 처리부(191)를 제어하고, 처리된 사용자 음성을 출력하도록 스피커(193)를 제어할 수 있다. For example, when a user command for performing a video call is input, the controller 140 may capture a video call image through the camera 195 and collect the user's voice through the microphone 196. In addition, the controller 140 may control the communication unit 170 to transmit the captured video call image and the collected user image to an external display device (not shown). In addition, the controller 140 controls the video processing unit 192 to process the video call image received from an external display device (not shown) in a format that can be output by the display unit 120, and displays the processed video call image. The display unit 120 can be controlled. In addition, the controller 140 controls the audio processing unit 191 to process the user's voice received from an external display device (not shown) in a form that can be output by the speaker 193, and the speaker 193 to output the processed user voice. ) Can be controlled.

다른 예로, 제어부(140)는 그래픽 요소 입력 모드를 실행하기 위한 사용자 명령이 입력되면, 디스플레이부(120)에 디스플레이되던 이미지를 캡쳐하고 캡쳐된 이미지를 디스플레이할 수 있다. 그리고, 제어부(140)는 그래픽 요소 입력 모드를 종료하기 위한 사용자 명령이 입력되면, 캡쳐된 이미지 상에 입력된 그래픽 요소를 저장할 수 있다.As another example, when a user command for executing the graphic element input mode is input, the controller 140 may capture an image displayed on the display 120 and display the captured image. In addition, when a user command for terminating the graphic element input mode is input, the controller 140 may store the input graphic element on the captured image.

또 다른 예로, 제어부(140)는 그래픽 요소를 오버랩하기 위한 사용자 명령이 입력되면, 저장부(110)에 저장된 그래픽 요소에 대한 리스트를 디스플레이할 수 있다. 그리고, 제어부(140)는 해당 리스트를 통해 선택된 그래픽 요소를 검출된 얼굴 영역에 오버랩하여 디스플레이할 수 있다.As another example, when a user command for overlapping graphic elements is input, the controller 140 may display a list of graphic elements stored in the storage unit 110. In addition, the controller 140 may display the graphic element selected through the list by overlapping the detected face area.

한편, 감지부(180)를 통해 세로 모드에서 가로 모드로의 회전이 감지되는 경우, 제어부(140)는 세로 모드에 적합하게 디스플레이된 화면을 가로 모드에 적합하도록 리스케일링 또는 변경하여 디스플레이하도록 제어할 수 있다.On the other hand, when the rotation from the portrait mode to the landscape mode is detected through the detection unit 180, the controller 140 controls to display a screen appropriately displayed for the portrait mode by rescaling or changing it to be suitable for the landscape mode. I can.

예를 들어, 세로 모드를 통해 화상 통화를 수행하고 있는 도중 디스플레이 장치(100)가 가로 모드로 회전되는 경우, 제어부(140)는 화상 통화 영상을 가로 모드에 맞게 화상 통화 영상을 처리하도록 비디오 처리부(192)를 제어하여, 가로 모드에 대응되는 화상 통화 영상이 출력되도록 디스플레이부(120)를 제어할 수 있다.For example, when the display device 100 is rotated in the landscape mode while performing a video call through the portrait mode, the controller 140 may process the video call image to fit the landscape mode. By controlling 192, the display 120 may be controlled to output a video call image corresponding to the landscape mode.

오디오 처리부(191)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(191)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.The audio processing unit 191 is a component that processes audio data. The audio processing unit 191 may perform various processing such as decoding, amplification, noise filtering, and the like for audio data.

비디오 처리부(192)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(192)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. The video processing unit 192 is a component that processes video data. The video processing unit 192 may perform various image processing such as decoding, scaling, noise filtering, frame rate conversion, and resolution conversion on video data.

스피커(193)는 오디오 처리부(180)에서 처리된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다. 특히, 스피커(193)는 외부 디스플레이 장치(미도시)로부터 수신된 사용자 음성을 출력할 수 있다.The speaker 193 is a component that outputs not only various audio data processed by the audio processing unit 180, but also various notification sounds or voice messages. In particular, the speaker 193 may output a user voice received from an external display device (not shown).

USB 포트(194)는 USB 케이블을 통해서 각종 외부 장치와 통신을 수행하거나, 충전 등을 수행할 수 있다. The USB port 194 may perform communication with various external devices or perform charging through a USB cable.

카메라(195)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 카메라(193)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수 있다. 특히, 카메라(195)는 외부 디스플레이 장치(미도시)와 화상 통화를 수행하기 위해, 화상 통화 영상을 촬영할 수 있다.The camera 195 is a component for capturing a still image or a moving image according to the user's control. The camera 193 may be implemented in plural, such as a front camera and a rear camera. In particular, the camera 195 may take a video call image to perform a video call with an external display device (not shown).

마이크(196)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 특히, 마이크(196)는 외부 디스플레이 장치(미도시)와 화상 통화를 수행하기 위해, 사용자 음성을 수집할 수 있다. The microphone 196 is a component for receiving a user's voice or other sound and converting it into audio data. In particular, the microphone 196 may collect a user's voice in order to perform a video call with an external display device (not shown).

그 밖에, 디스플레이 장치(100)는 헤드셋, 마우스 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트들이 더 포함될 수도 있다. In addition, the display apparatus 100 may further include various external input ports for connecting to various external terminals such as a headset and a mouse.

한편, 제어부(140)는 저장부(110)에 저장된 각종 프로그램을 이용하여 디스플레이 장치(100)의 동작을 전반적으로 제어한다. Meanwhile, the control unit 140 generally controls the operation of the display apparatus 100 using various programs stored in the storage unit 110.

가령, 제어부(140)는 저장부(110)에 저장된 어플리케이션을 실행시켜 그 실행 화면을 구성하여 디스플레이할 수도 있으며, 저장부(110)에 저장된 각종 컨텐츠를 재생하여 줄 수도 있다. For example, the control unit 140 may execute an application stored in the storage unit 110 to configure and display an execution screen thereof, or may play back various contents stored in the storage unit 110.

구체적으로, 제어부(140)는 RAM(141), ROM(142), 메인 CPU(143), 그래픽 처리부(144), 제1 내지 n 인터페이스(145-1 ~ 145-n), 버스(146)를 포함한다.Specifically, the control unit 140 includes the RAM 141, the ROM 142, the main CPU 143, the graphic processing unit 144, the first to n interfaces 145-1 to 145-n, and the bus 146. Include.

RAM(141), ROM(142), 메인 CPU(143), 그래픽 처리부(144), 제1 내지 n 인터페이스(145-1 ~ 145-n) 등은 버스(146)를 통해 서로 연결될 수 있다. The RAM 141, the ROM 142, the main CPU 143, the graphic processing unit 144, the first to n interfaces 145-1 to 145-n, and the like may be connected to each other through the bus 146.

제1 내지 n 인터페이스(145-1 내지 145-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to nth interfaces 145-1 to 145-n are connected to the above-described various components. One of the interfaces may be a network interface that is connected to an external device through a network.

메인 CPU(143)는 저장부(110)에 액세스하여, 저장부(110)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU 143 accesses the storage unit 110 and performs booting using the O/S stored in the storage unit 110. Further, various operations are performed using various programs, contents, data, etc. stored in the storage unit 110.

ROM(142)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(143)는 ROM(142)에 저장된 명령어에 따라 저장부(110)에 저장된 O/S를 RAM(141)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(143)는 저장부(110)에 저장된 각종 어플리케이션 프로그램을 RAM(141)에 복사하고, RAM(141)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 142 stores an instruction set for booting a system, and the like. When the turn-on command is input and power is supplied, the main CPU 143 copies the O/S stored in the storage unit 110 to the RAM 141 according to the command stored in the ROM 142, and executes the O/S. Boot the system. When booting is complete, the main CPU 143 copies various application programs stored in the storage unit 110 to the RAM 141 and executes the application programs copied to the RAM 141 to perform various operations.

그래픽 처리부(144)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이부(120)의 디스플레이 영역 내에 표시된다.The graphic processing unit 144 generates a screen including various objects such as icons, images, texts, etc. using an operation unit (not shown) and a rendering unit (not shown). The calculation unit (not shown) calculates attribute values such as coordinate values, shapes, sizes, colors, etc. to be displayed for each object according to the layout of the screen. The rendering unit (not shown) generates screens of various layouts including objects based on the attribute values calculated by the calculation unit (not shown). The screen generated by the rendering unit (not shown) is displayed in the display area of the display unit 120.

한편, 도 9는 디스플레이 장치(100)에 포함된 세부 구성의 일 예를 든 것으로, 실시 예에 따라서는, 도 9에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성요소가 더 추가될 수도 있다. 예를 들어, GPS(Grobal Positioning System) 위성으로부터 GPS 신호를 수신하여, 디스플레이 장치(100)의 현재 위치를 산출하기 위한 GPS 수신부(미도시), DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 수신부(미도시) 등을 더 포함할 수 있다. Meanwhile, FIG. 9 shows an example of a detailed configuration included in the display apparatus 100. Depending on the embodiment, some of the components illustrated in FIG. 9 may be omitted or changed, and other components may be further included. It can also be added. For example, a GPS receiver (not shown) for receiving a GPS signal from a GPS (Grobal Positioning System) satellite to calculate the current position of the display device 100, and a DMB for receiving and processing a Digital Multimedia Broadcasting (DMB) signal. It may further include a receiver (not shown).

도 10 내지 도 16은 본 발명의 일 실시 예에 따라 그래픽 요소를 오버랩하여 디스플레이하는 방법을 설명하기 위한 도면들이다. 특히, 도 10 내지 도 16은 디스플레이 장치(100)가 외부 디스플레이 장치(미도시)와 화상 통화를 수행하는 도중, 화상 통화 영상을 구성하는 각 영상 프레임에 그래픽 요소를 오버랩하여 디스플레이하는 방법을 설명하기 위한 도면이다. 하지만, 이는 설명의 편의를 위한 일 예일 뿐, 디스플레이 장치(100)는 다양한 이미지에 그래픽 요소를 오버랩하여 디스플레이할 수 있음은 물론이다.10 to 16 are diagrams for explaining a method of overlapping and displaying graphic elements according to an embodiment of the present invention. In particular, FIGS. 10 to 16 illustrate a method of displaying a graphic element overlapping each image frame constituting a video call image while the display device 100 performs a video call with an external display device (not shown). It is a drawing for. However, this is only an example for convenience of description, and it goes without saying that the display apparatus 100 may display various images by overlapping graphic elements.

먼저, 도 10과 같이, 디스플레이 장치(100)는 외부 디스플레이 장치(미도시)로부터 수신된 화상 통화 영상(710) 및 카메라(195)에서 촬영된 화상 통화 영상(720)을 디스플레이할 수 있다.First, as shown in FIG. 10, the display device 100 may display a video call image 710 received from an external display device (not shown) and a video call image 720 captured by the camera 195.

한편, 디스플레이 장치(100)는 기설정된 이벤트에 따라 사용자 명령을 입력받기 위한 GUI(730)를 디스플레이할 수 있다. 여기에서, 기설정된 이벤트는 디스플레이 화면을 터치하는 사용자 조작, 디스플레이 장치(100)에 구비된 특정 버튼을 누르는 사용자 조작 등 다양하게 구현될 수 있다.Meanwhile, the display device 100 may display a GUI 730 for receiving a user command according to a preset event. Here, the preset event may be variously implemented, such as a user manipulation of touching the display screen, a user manipulation of pressing a specific button provided on the display apparatus 100, and the like.

GUI(730)는 그래픽 요소를 오버랩하기 위한 사용자 명령을 입력받기 위한 항목(731) 및 그래픽 요소 입력 모드를 실행하기 위한 항목(732)을 포함할 수 있다.The GUI 730 may include an item 731 for receiving a user command for overlapping a graphic element and an item 732 for executing a graphic element input mode.

여기에서, 그래픽 요소 입력 모드는 사용자로부터 그래픽 요소를 입력받을 수 있는 모드를 의미한다.Here, the graphic element input mode means a mode in which graphic elements can be input from a user.

그래픽 요소 입력 모드를 실행하기 위한 항목(732)이 선택되면, 도 11과 같이, 디스플레이 장치(100)는 디스플레이되던 화상 통화 영상을 캡쳐하고, 캡쳐된 이미지(740)를 기존의 화상 통화 영상(710, 720)과 함께 디스플레이할 수 있다. 이 경우, 디스플레이 장치(100)는 캡쳐된 이미지(740) 상에, 그래픽 요소를 그릴 수 있는 다양한 그림 도구를 선택받기 위한 항목(751, 752, 753), 입력된 그래픽 요소를 오버랩하기 위한 사용자 명령을 입력받기 위한 항목(754) 및, 그래픽 요소 입력 모드를 종료하기 위한 사용자 명령을 입력받기 위한 항목(755)을 디스플레이할 수 있다.When the item 732 for executing the graphic element input mode is selected, as shown in FIG. 11, the display device 100 captures the displayed video call image and transfers the captured image 740 to the existing video call image 710. , 720) can be displayed together. In this case, the display device 100 includes items 751, 752, and 753 for selecting various drawing tools capable of drawing graphic elements on the captured image 740, and a user command for overlapping the input graphic elements. An item 754 for receiving an input and an item 755 for receiving a user command for terminating the graphic element input mode may be displayed.

이에 따라, 사용자는 터치 조작을 통해 캡쳐된 이미지 상에 그래픽 요소를 입력할 수 있다. 이 경우, 사용자는 연필 도구 항목(751)을 선택하여 연필로 그래픽 요소를 입력하거나, 붓 도구 항목(752)을 선택하여 붓으로 그래픽 요소를 입력할 수 있으며, 지우개 도구 항목(753)을 선택하여 입력된 그래픽 요소를 삭제할 수도 있다. 하지만, 이는 일 예일 뿐이며, 도시되지 않은 다양한 그림 도구 항목을 이용할 수 있음은 물론이다.Accordingly, the user can input a graphic element on the captured image through touch manipulation. In this case, the user can select the pencil tool item 751 and input graphic elements with a pencil, or select the brush tool item 752 to input graphic elements with a brush, and select the eraser tool item 753 You can also delete entered graphic elements. However, this is only an example, and of course, various drawing tool items not shown may be used.

한편, 도 12와 같이, 디스플레이 장치(100)는 사용자로부터 입력된 그래픽 요소(741)를 캡쳐된 이미지 상에 오버랩하여 디스플레이할 수 있다. Meanwhile, as shown in FIG. 12, the display device 100 may overlap and display a graphic element 741 input from a user on the captured image.

그리고, 입력된 그래픽 요소를 오버랩하기 위한 사용자 명령을 입력받기 위한 항목(754)이 선택되면, 디스플레이 장치(100)는 입력된 그래픽 요소를 화상 통화 영상에 오버랩하여 디스플레이할 수 있다. 예를 들어, 도 13과 같이, 디스플레이 장치(100)는 화상 통화 영상(710) 내의 얼굴 영역에 사용자로부터 입력된 마스크(741)를 오버랩하여 디스플레이할 수 있다. In addition, when the item 754 for receiving a user command for overlapping the input graphic element is selected, the display apparatus 100 may display the input graphic element by overlapping the video call image. For example, as shown in FIG. 13, the display apparatus 100 may overlap and display a mask 741 input from a user on a face area in the video call image 710.

이 경우, 디스플레이 장치(100)는 캡쳐된 이미지에 포함된 얼굴 영역을 기준 얼굴 영역으로 설정하고, 도 3 내지 도 7에서 설명한 방식을 이용하여 그래픽 요소를 오버랩하여 디스플레이할 수 있다. In this case, the display apparatus 100 may set the face area included in the captured image as the reference face area, and may overlap and display the graphic elements using the method described in FIGS. 3 to 7.

이때, 디스플레이 장치(100)는 입력된 그래픽 요소를 저장할 수 있다. 이 경우, 디스플레이 장치(100)는 그래픽 요소가 입력된 위치에 대한 정보를 함께 저장할 수 있다. 예를 들어, 디스플레이 장치(100)는 도 12에서 입력된 마스크(741)를 저장할 수 있다. 그리고, 디스플레이 장치(100)는 마스크(741)에 기준점을 설정하고 기준점이 두 눈 사이의 중심에 위치하는 것으로, 마스크(741)가 입력된 위치 정보를 저장할 수 있다. In this case, the display device 100 may store the input graphic element. In this case, the display device 100 may also store information on the location where the graphic element is input. For example, the display device 100 may store the mask 741 input in FIG. 12. In addition, the display apparatus 100 sets a reference point on the mask 741 and is positioned at the center between the two eyes, and may store location information to which the mask 741 is input.

한편, 그래픽 요소 입력 모드를 종료하기 위한 사용자 명령을 입력받기 위한 항목(755)이 선택되면, 디스플레이 장치(100)는 도 14와 같이, 캡쳐된 이미지(740) 및 그래픽 요소(741)를 제거하고, 화상 통화 영상(710. 720)을 디스플레이할 수 있다.Meanwhile, when the item 755 for receiving a user command for terminating the graphic element input mode is selected, the display device 100 removes the captured image 740 and the graphic element 741 as shown in FIG. 14. , A video call image (710. 720) may be displayed.

이때, 디스플레이 장치(100)는 입력된 그래픽 요소(741)를 저장할 수 있다. 이 경우, 디스플레이 장치(100)는 그래픽 요소(741)가 입력된 위치에 대한 정보를 함께 저장할 수 있다.In this case, the display device 100 may store the input graphic element 741. In this case, the display device 100 may also store information on a location where the graphic element 741 is input.

이러한 방식으로, 사용자는 화상 통화 영상에 오버랩하고자하는 그래픽 요소를 직접 입력할 수 있다. 이에 따라, 입력된 그래픽 요소는 화상 통화 영상에 오버랩되어 사용자에게 제공될 수 있다.In this way, the user can directly input graphic elements to be overlapped on the video call image. Accordingly, the input graphic element may be provided to the user by overlapping the video call image.

한편, 화상 통화를 수행 시, 상대방은 정면이 아닌 다른 방향을 바라볼 수도 있다. 이 경우에도, 본 발명에서는 다른 방향을 바라보는 상대방의 얼굴 영역에 맞게 그래픽 요소를 오버랩하여 디스플레이할 수 있다.Meanwhile, when performing a video call, the other party may look in a direction other than the front. Even in this case, in the present invention, graphic elements may be overlapped and displayed in accordance with the face area of the other person facing the other direction.

예를 들어, 도 15 내지 도 17은 좌측 방향을 바라보는 상대방의 얼굴 영역에 그래픽 요소가 오버랩되는 경우를 나타낸다.For example, FIGS. 15 to 17 illustrate a case where a graphic element overlaps a face area of a counterpart facing the left direction.

도 15와 같이, 디스플레이 장치(100)는 외부 디스플레이 장치(미도시)로부터 수신된 화상 통화 영상(810) 및 카메라(195)에서 촬영된 화상 통화 영상(820)을 디스플레이할 수 있다. 이때, 화상 통화 영상(810)을 참조하면, 상대방이 좌측 방향을 바라보는 것을 확인할 수 있다.As shown in FIG. 15, the display device 100 may display a video call image 810 received from an external display device (not shown) and a video call image 820 captured by the camera 195. In this case, referring to the video call image 810, it can be confirmed that the other party is looking to the left.

한편, 디스플레이 장치(100)는 기설정된 이벤트에 따라 사용자 명령을 입력받기 위한 GUI(830)를 디스플레이할 수 있다. 여기에서, GUI(830)는 그래픽 요소를 오버랩하기 위한 사용자 명령을 입력받기 위한 항목(831) 및 그래픽 요소 입력 모드를 실행하기 위한 항목(832)을 포함할 수 있다.Meanwhile, the display device 100 may display a GUI 830 for receiving a user command according to a preset event. Here, the GUI 830 may include an item 831 for receiving a user command for overlapping a graphic element and an item 832 for executing a graphic element input mode.

그래픽 요소를 오버랩하기 위한 사용자 명령을 입력받기 위한 항목(831)이 선택되면, 도 16과 같이, 기저장된 그래픽 요소에 대한 리스트(840)가 디스플레이될 수 있다.When an item 831 for receiving a user command for overlapping a graphic element is selected, as shown in FIG. 16, a list 840 of pre-stored graphic elements may be displayed.

구체적으로, 리스트(840)는 디스플레이 장치(100)에 기저장되어 있던 그래픽 요소(841, 842, 843, 844) 및 사용자에 의해 입력되어 저장된 그래픽 요소(845)를 포함할 수 있다. Specifically, the list 840 may include graphic elements 841, 842, 843, and 844 previously stored in the display device 100 and a graphic element 845 input and stored by a user.

이에 따라, 그래픽 요소가 선택되면, 디스플레이 장치(100)는 선택된 그래픽 요소를 화상 통화 영상에 포함된 사용자의 얼굴 영역에 오버랩하여 디스플레이할 수 있다. 예를 들어, 도 16과 같이, 리스트(840) 상에서 마스크(841)가 선택되면, 디스플레이 장치(100)는 도 17과 같이 화상 통화 영상(810)에 포함된 사용자의 얼굴 영역에 마스크(841)를 오버랩하여 디스플레이할 수 있다.Accordingly, when a graphic element is selected, the display apparatus 100 may display the selected graphic element by overlapping the user's face area included in the video call image. For example, as shown in FIG. 16, when the mask 841 is selected on the list 840, the display apparatus 100 may mask 841 on the user's face area included in the video call image 810 as shown in FIG. Can be displayed by overlapping.

이 경우, 디스플레이 장치(100)는 화상 통화 영상(810)에서 얼굴 영역을 검출하고, 검출된 얼굴 영역이 향하는 방향에 따라 마스크(841)를 변형하고, 변형된 마스크(841)를 검출된 얼굴 영역에 오버랩하여 디스플레이할 수 있다. 이때, 디스플레이 장치(100)는 도 3 내지 도 7에서 구체적으로 설명한 방식을 이용하여 마스크(841)의 형태를 변경할 수 있다. In this case, the display apparatus 100 detects a face region in the video call image 810, deforms the mask 841 according to the direction in which the detected face region faces, and uses the deformed mask 841 into the detected face region. Can be displayed by overlapping with. In this case, the display apparatus 100 may change the shape of the mask 841 using the method specifically described with reference to FIGS. 3 to 7.

이에 따라, 상대방의 얼굴이 회전된 경우에도 자연스러운 그래픽 요소를 오버랩하여 디스플레이할 수 있다. 따라서, 사용자가 느끼는 흥미는 더욱 증가될 수 있다.Accordingly, even when the other person's face is rotated, natural graphic elements can be overlapped and displayed. Therefore, the user's interest can be further increased.

한편, 도 16 및 도 17에서는 디스플레이 장치(100)에 기저장된 그래픽 요소를 변형하여, 화상 통화 영상에서 검출된 얼굴 영역에 오버랩하여 디스플레이하는 것으로 설명하였으나 이는 일 예에 불과하다. 즉, 도 10 내지 도 13에 설명한 방식에 따라 사용자에 의해 입력된 그래픽 요소가 리스트 상에서 선택되면, 사용자에 의해 입력된 그래픽 요소를 화상 통화 영상에서 검출된 얼굴 영역이 향하는 방향에 따라 변형하고, 변형된 그래픽 요소를 화상 통화 영상에서 검출된 얼굴 영역에 오버랩하여 디스플레이할 수 있음은 물론이다.Meanwhile, in FIGS. 16 and 17, it has been described that a graphic element previously stored in the display apparatus 100 is transformed and displayed by overlapping a face region detected in a video call image, but this is only an example. That is, when a graphic element input by the user is selected on the list according to the method described in FIGS. 10 to 13, the graphic element input by the user is transformed according to the direction of the face area detected in the video call image, and It goes without saying that it is possible to display the graphic element by overlapping the face area detected in the video call image.

이 경우, 디스플레이 장치(100)는 캡쳐된 이미지 내에 포함된 얼굴 영역을 기준 얼굴 영역으로 하고, 도 3 내지 도 7에서 설명한 방식으로 그래픽 요소의 형태를 변경하여 화상 통화 영상에서 검출된 얼굴 영역에 오버랩하여 디스플레이할 수 있다.In this case, the display device 100 uses the face area included in the captured image as the reference face area, and changes the shape of the graphic element in the manner described in FIGS. 3 to 7 to overlap the face area detected in the video call image. Can be displayed.

이에 따라, 기저장되어 있던 그래픽 요소 외에도, 자신이 원하는 형상을 갖는 그래픽 요소를 입력하고, 이를 실시간으로 화상 통화 영상에서 검출된 얼굴 영역에 오버랩시킬 수 있게 된다. 따라서, 사용자가 느끼는 흥미는 더욱 증가될 수 있다.Accordingly, in addition to the previously stored graphic elements, a graphic element having a desired shape can be input and overlapped with the face area detected in the video call image in real time. Therefore, the user's interest can be further increased.

도 18은 본 발명의 일 실시 예에 따른 그래픽 요소 디스플레이 방법을 설명하기 위한 흐름도이다.18 is a flowchart illustrating a method of displaying a graphic element according to an embodiment of the present invention.

먼저, 기준 얼굴 영역에 오버랩되는 그래픽 요소를 저장한다(S910). 여기에서, 그래픽 요소는 이미지에 포함된 사용자의 얼굴 영역에 오버랩되어 사용자에게 흥미나 재미를 유발시킬 수 있는 다양한 종류의 아이템을 포함할 수 있다. 예를 들어, 그래픽 요소는 마스크, 수염, 뿔, 상처, 안경 등 사용자의 얼굴 영역에 오버랩될 수 있는 다양한 종류의 그래픽 요소를 포함할 수 있다.First, a graphic element overlapping the reference face area is stored (S910). Here, the graphic element may include various types of items that may cause interest or fun to the user by overlapping the user's face area included in the image. For example, the graphic element may include various types of graphic elements that may overlap the user's face area, such as a mask, beard, horn, wound, and glasses.

또한, 기준 얼굴 영역이란, 그래픽 요소가 오버랩되어 디스플레이될 때 자연스러운 이미지를 구현할 수 있는 얼굴 영역이 될 수 있다. 일반적으로 그래픽 요소는 정면 방향을 향하는 얼굴 영역에 매칭되어 저장되므로, 기준 얼굴 영역은 정면 방향을 향하는 얼굴 영역이 될 수 있다.In addition, the reference face region may be a face region capable of realizing a natural image when graphic elements are overlapped and displayed. In general, since the graphic element is matched to and stored in a face area facing the front direction, the reference face area may be a face area facing the front direction.

이 경우, 그래픽 요소의 기준 위치가 얼굴 영역 내에서 위치하는 지점에 대한 정보를 저장할 수 있다. 여기에서, 그래픽 요소의 기준 위치는 그래픽 요소의 종류에 따라 달라질 수 있다. In this case, information on a point where the reference position of the graphic element is located within the face area may be stored. Here, the reference position of the graphic element may vary depending on the type of the graphic element.

한편, 그래픽 요소는 사용자에 의해 입력되어 저장될 수도 있다. 이 경우, 사용자 명령에 따라 상기 이미지를 캡쳐하는 단계, 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 검출하는 단계 및, 캡쳐된 이미지에 오버랩되도록 입력된 그래픽 요소 및 입력된 그래픽 요소가 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역에서 오버랩된 위치 정보를 저장할 수 있다. Meanwhile, the graphic element may be input and stored by the user. In this case, capturing the image according to a user command, detecting a user's face area included in the captured image, and an input graphic element and an input graphic element overlapping the captured image are the captured image Position information overlapped in the user's face area included in may be stored.

그리고, 이미지에 포함된 사용자의 얼굴 영역을 검출한다(S920). 여기에서, 특징 기반 얼굴 검출 방법, SVM, 얼굴 템플릿 기반 검출 방법 등 다양한 방법을 이용하여 얼굴 영역을 검출할 수 있다.Then, the user's face area included in the image is detected (S920). Here, a face region may be detected using various methods such as a feature-based face detection method, an SVM, and a face template-based detection method.

이후, 기준 얼굴 영역이 향하는 방향을 기준으로 검출된 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형하고(S930), 변형된 그래픽 요소를 이미지 내의 얼굴 영역에 오버랩하여 디스플레이한다(S940).Thereafter, the graphic element is deformed according to the direction in which the detected face region faces based on the direction in which the reference face region faces (S930), and the transformed graphic element is overlapped with the face region in the image to be displayed (S940).

한편, 오버랩되는 그래픽 요소로 사용자에 의해 입력된 그래픽 요소가 선택되는 경우, 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 기준 얼굴 영역으로 설정하여, 그래픽 요소의 형태를 변형할 수 있다. Meanwhile, when a graphic element input by a user is selected as an overlapping graphic element, the shape of the graphic element may be changed by setting the user's face area included in the captured image as the reference face area.

즉, 기저장된 그래픽 요소는 기준 얼굴 영역을 기준으로 검출된 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형하고, 사용자에 의해 입력되어 저장된 그래픽 요소는 캡쳐된 이미지에 포함된 사용자의 얼굴 영역이 향하는 방향에 따라 그래픽 요소를 변형할 수 있다.That is, the pre-stored graphic element transforms the graphic element according to the direction of the face area detected based on the reference face area, and the graphic element input and stored by the user is the direction the user's face area included in the captured image faces. Graphic elements can be transformed according to.

구체적으로, 기설정된 얼굴 구성 요소에 기초하여 기준 얼굴 영역 및 검출된 얼굴 영역 각각에 대한 제1 및 제2 기준점을 설정하고, 제1 기준점을 기준으로 제2 기준점의 상대적인 위치를 결정하며, 결정된 상대적인 위치에 기초하여 그래픽 요소를 변형할 수 있다.Specifically, first and second reference points for each of the reference face area and the detected face area are set based on a preset face component, the relative position of the second reference point is determined based on the first reference point, and the determined relative Graphical elements can be transformed based on their position.

보다 구체적으로, 제1 기준점을 기준으로 기준 얼굴 영역을 복수의 영역으로 분할하고, 제2 기준점을 기준으로 검출된 얼굴 영역을 복수의 영역으로 분할하며, 제1 기준점을 기준으로 분할된 복수의 영역 및 제2 기준점을 기준으로 분할된 복수의 영역 각각의 크기를 비교하고, 비교 결과에 기초하여 그래픽 요소의 형태를 변경할 수 있다.More specifically, a reference face area is divided into a plurality of areas based on a first reference point, a face area detected based on a second reference point is divided into a plurality of areas, and a plurality of areas divided based on a first reference point And comparing the sizes of each of the plurality of regions divided based on the second reference point, and changing the shape of the graphic element based on the comparison result.

그리고, 형태가 변경된 그래픽 요소의 기준 위치를 제2 기준점에 매칭시켜 검출된 얼굴 영역에 오버랩하여 디스플레이할 수 있다.In addition, the reference position of the graphic element whose shape has been changed may be matched with the second reference point to overlap the detected face area and displayed.

본 실시 예에 따라, 그래픽 요소를 변형하여 이미지에 오버랩하는 방법에 대해서는 도 3 내지 도 7에서 설명한바 있으며, 구체적인 실시 예에 대해서는 도 10 내지 도 16에서 설명한 바 있다.According to the present embodiment, a method of deforming a graphic element and overlapping an image has been described with reference to FIGS. 3 to 7, and a specific embodiment has been described with reference to FIGS. 10 to 16.

또한, 본 발명에 따른 그래픽 요소 디스플레이 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다. In addition, a non-transitory computer readable medium in which a program for sequentially performing a graphic element display method according to the present invention is stored may be provided.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, and ROM.

또한, 디스플레이 장치에 대해 도시한 블록도에서는 버스(bus)를 미도시하였으나, 디스플레이 장치에서 각 구성요소 간의 통신은 버스를 통해 이루어질 수도 있다. 또한, 디스플레이 장치에는 상술한 다양한 단계를 수행하는 CPU, 마이크로 프로세서 등과 같은 프로세서가 더 포함될 수도 있다. In addition, although a bus is not shown in the block diagram showing the display device, communication between components in the display device may be performed through a bus. In addition, the display device may further include a processor such as a CPU or a microprocessor that performs various steps described above.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다. In addition, although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the claims. In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

100 : 디스플레이 장치 110 : 저장부
120 : 디스플레이부 130 : 검출부
140 : 제어부
100: display device 110: storage
120: display unit 130: detection unit
140: control unit

Claims (18)

디스플레이 장치의 그래픽 요소 디스플레이 방법에 있어서,
기준 얼굴 영역에 오버랩되는 그래픽 요소를 선택하는 단계;
이미지에 포함된 사용자의 얼굴 영역을 검출하는 단계;
상기 기준 얼굴 영역 및 상기 검출된 얼굴 영역의 크기가 대응되도록 상기 기준 얼굴 영역을 스케일링하는 단계;
상기 기준 얼굴 영역을 기준으로 상기 검출된 얼굴 영역에 따라 상기 그래픽 요소를 변형하는 단계; 및,
상기 변형된 그래픽 요소를 상기 이미지 내의 얼굴 영역에 오버랩하여 디스플레이하는 단계;를 포함하며,
상기 변형하는 단계는,
상기 기준 얼굴 영역을 복수의 영역으로 분할하고, 상기 검출된 얼굴 영역을 복수의 영역으로 분할하며, 상기 기준 얼굴 영역의 복수의 영역 각각과 대응되는 상기 검출된 얼굴 영역의 복수의 영역을 비교하고, 상기 비교 결과에 기초하여 상기 그래픽 요소의 형태를 변경하는, 그래픽 요소 디스플레이 방법.
In the method of displaying a graphic element of a display device,
Selecting a graphic element overlapping the reference face area;
Detecting a user's face area included in the image;
Scaling the reference face area so that the size of the reference face area and the detected face area correspond;
Transforming the graphic element according to the detected face area based on the reference face area; And,
Including; displaying the transformed graphic element by overlapping the face area in the image,
The transforming step,
Dividing the reference face region into a plurality of regions, dividing the detected face region into a plurality of regions, comparing a plurality of regions of the detected face region corresponding to each of the plurality of regions of the reference face region, The graphic element display method of changing the shape of the graphic element based on the comparison result.
제1항에 있어서,
사용자 명령에 따라 상기 이미지를 캡쳐하는 단계;
상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 검출하는 단계; 및,
상기 캡쳐된 이미지에 오버랩되도록 입력된 상기 그래픽 요소 및 상기 입력된 그래픽 요소가 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역에서 오버랩된 위치 정보를 저장하는 단계;를 더 포함하는 것을 특징으로 하는 그래픽 요소 디스플레이 방법.
The method of claim 1,
Capturing the image according to a user command;
Detecting a user's face area included in the captured image; And,
And storing the graphic element input so as to overlap the captured image and location information in which the input graphic element overlaps in the face area of the user included in the captured image. Display method.
제2항에 있어서,
상기 변형하는 단계는,
상기 캡쳐된 이미지에 포함된 상기 사용자의 얼굴 영역을 상기 기준 얼굴 영역으로 설정하여, 상기 그래픽 요소의 형태를 변형하는 것을 특징으로 하는 그래픽 요소 디스플레이 방법.
The method of claim 2,
The transforming step,
And changing a shape of the graphic element by setting the user's face area included in the captured image as the reference face area.
제1항 또는 제3항에 있어서,
상기 변형하는 단계는,
기설정된 얼굴 구성 요소에 기초하여 상기 기준 얼굴 영역 및 상기 검출된 얼굴 영역 각각에 대한 제1 및 제2 기준점을 설정하는 단계;
상기 제1 기준점을 기준으로 상기 제2 기준점의 상대적인 위치를 결정하는 단계; 및
상기 결정된 상대적인 위치에 기초하여 상기 그래픽 요소를 변형하는 단계;를 포함하는 것을 특징으로 하는 그래픽 요소 디스플레이 방법.
The method of claim 1 or 3,
The transforming step,
Setting first and second reference points for each of the reference face region and the detected face region based on a preset face component;
Determining a relative position of the second reference point based on the first reference point; And
And transforming the graphic element based on the determined relative position.
제4항에 있어서,
상기 변형하는 단계는,
상기 제1 기준점을 기준으로 상기 기준 얼굴 영역을 복수의 영역으로 분할하는 단계;
상기 제2 기준점을 기준으로 상기 검출된 얼굴 영역을 복수의 영역으로 분할하는 단계;
상기 제1 기준점을 기준으로 분할된 복수의 영역 및 상기 제2 기준점을 기준으로 분할된 복수의 영역 각각의 크기를 비교하고, 상기 비교 결과에 기초하여 상기 그래픽 요소의 형태를 변경하는 단계;를 포함하는 것을 특징으로 하는 그래픽 요소 디스플레이 방법.
The method of claim 4,
The transforming step,
Dividing the reference face area into a plurality of areas based on the first reference point;
Dividing the detected face area into a plurality of areas based on the second reference point;
Comprising the size of each of the plurality of regions divided based on the first reference point and the plurality of regions divided based on the second reference point, and changing the shape of the graphic element based on the comparison result; and Graphic element display method, characterized in that.
제5항에 있어서,
상기 디스플레이하는 단계는,
상기 형태가 변경된 그래픽 요소의 기준 위치를 상기 제2 기준점에 매칭시켜 상기 검출된 얼굴 영역에 오버랩하여 디스플레이하는 것을 특징으로 하는 그래픽 요소 디스플레이 방법.
The method of claim 5,
The displaying step,
And displaying a reference position of the changed graphic element with the second reference point and overlapping the detected face area.
디스플레이 장치에 있어서,
디스플레이부;
이미지에 포함된 사용자의 얼굴 영역을 검출하는 검출부; 및,
기준 얼굴 영역에 오버랩되는 그래픽 요소를 사용자로부터 선택 받고,
상기 기준 얼굴 영역 및 상기 검출된 얼굴 영역의 크기가 대응되도록 상기 기준 얼굴 영역을 스케일링하고,
상기 기준 얼굴 영역을 기준으로 상기 검출된 얼굴 영역에 따라 상기 그래픽 요소를 변형하고,
상기 변형된 그래픽 요소를 상기 이미지 내의 얼굴 영역에 오버랩하여 디스플레이하도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 기준 얼굴 영역을 복수의 영역으로 분할하고, 상기 검출된 얼굴 영역을 복수의 영역으로 분할하며, 상기 기준 얼굴 영역의 복수의 영역 각각과 대응되는 상기 검출된 얼굴 영역의 복수의 영역을 비교하고, 상기 비교 결과에 기초하여 상기 그래픽 요소의 형태를 변경하는, 디스플레이 장치.
In the display device,
A display unit;
A detection unit that detects a face region of a user included in the image; And,
Graphic elements overlapping the reference face area are selected by the user,
Scaling the reference face area so that the size of the reference face area and the detected face area correspond,
Transforming the graphic element according to the detected face area based on the reference face area,
Includes; a control unit for controlling to display the transformed graphic element by overlapping the face area in the image,
The control unit,
Dividing the reference face region into a plurality of regions, dividing the detected face region into a plurality of regions, comparing a plurality of regions of the detected face region corresponding to each of the plurality of regions of the reference face region, A display device configured to change the shape of the graphic element based on the comparison result.
제7항에 있어서,
상기 디스플레이부는, 사용자 명령에 따라 상기 이미지를 캡쳐하여 디스플레이하고,
상기 검출부는, 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역을 검출하며,
상기 제어부는, 상기 캡쳐된 이미지에 오버랩되도록 입력된 상기 그래픽 요소 및 상기 입력된 그래픽 요소가 상기 캡쳐된 이미지에 포함된 사용자의 얼굴 영역에서 오버랩된 위치 정보를 저장하도록 저장부를 제어하는 것을 특징으로 하는 디스플레이 장치.
The method of claim 7,
The display unit captures and displays the image according to a user command,
The detection unit detects a user's face area included in the captured image,
The control unit controls the storage unit to store the graphic element input so as to overlap the captured image and the location information where the input graphic element overlaps in the face area of the user included in the captured image. Display device.
제8항에 있어서,
상기 제어부는,
상기 캡쳐된 이미지에서 검출된 사용자의 얼굴 영역을 상기 기준 얼굴 영역으로 설정하는 것을 특징으로 하는 디스플레이 장치.
The method of claim 8,
The control unit,
A display device, comprising: setting a user's face region detected in the captured image as the reference face region.
제7항 또는 제9항에 있어서,
상기 제어부는,
기설정된 얼굴 구성 요소에 기초하여 상기 기준 얼굴 영역 및 상기 검출된 얼굴 영역 각각에 대해 제1 및 제2 기준점을 설정하고, 상기 제1 기준점을 기준으로 상기 제2 기준점의 상대적인 위치를 결정하며, 상기 결정된 상대적인 위치에 기초하여 상기 그래픽 요소를 변형하는 것을 특징으로 하는 디스플레이 장치.
The method according to claim 7 or 9,
The control unit,
First and second reference points are set for each of the reference face area and the detected face area based on a preset face component, and a relative position of the second reference point is determined based on the first reference point, and the The display device, characterized in that the graphic element is deformed based on the determined relative position.
제10항에 있어서,
상기 제어부는,
상기 제1 기준점을 기준으로 상기 기준 얼굴 영역을 복수의 영역으로 분할하고, 상기 제2 기준점을 기준으로 상기 검출된 얼굴 영역을 복수의 영역으로 분할하며, 상기 제1 기준점을 기준으로 분할된 복수의 영역 및 상기 제2 기준점을 기준으로 분할된 복수의 영역 각각의 크기를 비교하고, 상기 비교 결과에 기초하여, 상기 그래픽 요소의 각 영역의 형태를 변경하는 것을 특징으로 하는 디스플레이 장치.
The method of claim 10,
The control unit,
The reference face region is divided into a plurality of regions based on the first reference point, the detected face region is divided into a plurality of regions based on the second reference point, and a plurality of divided regions are divided based on the first reference point. A display apparatus comprising: comparing sizes of a region and a plurality of regions divided based on the second reference point, and changing a shape of each region of the graphic element based on the comparison result.
제11항에 있어서,
상기 제어부는,
상기 형태가 변경된 그래픽 요소의 기준 위치를 상기 제2 기준점에 매칭시켜 상기 검출된 얼굴 영역에 오버랩하여 디스플레이하도록 제어하는 것을 특징으로 하는 디스플레이 장치.
The method of claim 11,
The control unit,
And controlling a reference position of the graphic element whose shape has been changed to match the second reference point to overlap and display the detected face area.
제1항에 있어서,
상기 변형하는 단계는,
상기 기준 얼굴 영역의 크기를 기준으로 상기 검출된 얼굴 영역의 크기에 따라 상기 그래픽 요소를 변형하는, 그래픽 요소 디스플레이 방법.
The method of claim 1,
The transforming step,
The graphic element display method, wherein the graphic element is transformed according to the size of the detected face area based on the size of the reference face area.
제1항에 있어서,
상기 변형하는 단계는,
상기 기준 얼굴 영역이 향하는 방향을 기준으로 상기 검출된 얼굴 영역이 향하는 방향에 따라 상기 그래픽 요소를 변형하는, 그래픽 요소 디스플레이 방법.
The method of claim 1,
The transforming step,
A method of displaying a graphic element, wherein the graphic element is transformed according to a direction in which the detected face area is directed based on a direction in which the reference face area is directed.
제14항에 있어서,
상기 검출된 얼굴 영역이 향하는 방향은, 좌측 방향, 우측 방향, 상측 방향, 우측 방향 중 적어도 하나의 방향인, 그래픽 요소 디스플레이 방법.
The method of claim 14,
The direction in which the detected face area is directed is at least one of a left direction, a right direction, an upward direction, and a right direction.
제7항에 있어서,
상기 제어부는,
상기 기준 얼굴 영역의 크기를 기준으로 상기 검출된 얼굴 영역의 크기에 따라 상기 그래픽 요소를 변형하는, 디스플레이 장치.
The method of claim 7,
The control unit,
The display device, wherein the graphic element is transformed according to the size of the detected face area based on the size of the reference face area.
제7항에 있어서,
상기 제어부는,
상기 기준 얼굴 영역이 향하는 방향을 기준으로 상기 검출된 얼굴 영역이 향하는 방향에 따라 상기 그래픽 요소를 변형하는, 디스플레이 장치.
The method of claim 7,
The control unit,
The display device, wherein the graphic element is transformed according to a direction in which the detected face area is directed based on a direction in which the reference face area is directed.
제17항에 있어서,
상기 검출된 얼굴 영역이 향하는 방향은, 좌측 방향, 우측 방향, 상측 방향, 우측 방향 중 적어도 하나의 방향인, 디스플레이 장치.
The method of claim 17,
The direction in which the detected face area faces is at least one of a left direction, a right direction, an upward direction, and a right direction.
KR1020200008884A 2020-01-22 2020-01-22 Display apparatus and method for displaying graphic item using the same KR102172985B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200008884A KR102172985B1 (en) 2020-01-22 2020-01-22 Display apparatus and method for displaying graphic item using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200008884A KR102172985B1 (en) 2020-01-22 2020-01-22 Display apparatus and method for displaying graphic item using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020120133949A Division KR102071673B1 (en) 2012-11-23 2012-11-23 Display apparatus and method for displaying graphic item using the same

Publications (2)

Publication Number Publication Date
KR20200014393A KR20200014393A (en) 2020-02-10
KR102172985B1 true KR102172985B1 (en) 2020-11-02

Family

ID=69627733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200008884A KR102172985B1 (en) 2020-01-22 2020-01-22 Display apparatus and method for displaying graphic item using the same

Country Status (1)

Country Link
KR (1) KR102172985B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100064873A (en) * 2008-12-05 2010-06-15 엘지전자 주식회사 Terminal and method for controlling the same

Also Published As

Publication number Publication date
KR20200014393A (en) 2020-02-10

Similar Documents

Publication Publication Date Title
KR102104053B1 (en) User termincal device for supporting user interaxion and methods thereof
EP2680110B1 (en) Method and apparatus for processing multiple inputs
EP3342160B1 (en) Display apparatus and control methods thereof
KR20180129432A (en) Mobile terminal and method for controlling the same
KR20160150491A (en) Portable apparatus and method for changing a screen
US11157127B2 (en) User terminal apparatus and controlling method thereof
US9860484B2 (en) Information processing apparatus, information processing system and information processing method
US20120229509A1 (en) System and method for user interaction
KR20150094481A (en) User terminal device and method for displaying thereof
KR102174740B1 (en) User terminal apparatus and control method thereof
US20200012425A1 (en) User terminal apparatus and controlling method thereof
KR20160078160A (en) Method for receving a user input by detecting a movement of a user and apparatus thereof
US10444831B2 (en) User-input apparatus, method and program for user-input
CN107767211A (en) Product control methods, device and storage medium based on augmented reality
CN104902318B (en) Control method for playing back and terminal device
CN113825002A (en) Display device and focus control method
KR102071673B1 (en) Display apparatus and method for displaying graphic item using the same
JP2014228945A (en) Area designating device
US20200296291A1 (en) User terminal apparatus and control method thereof
KR102172985B1 (en) Display apparatus and method for displaying graphic item using the same
US8970483B2 (en) Method and apparatus for determining input
CN115525182A (en) Electronic equipment and finger activity area adjusting method of virtual keyboard of electronic equipment
WO2012007034A1 (en) Sending and receiving information
KR20140110556A (en) Method for displaying object and an electronic device thereof
CN114821673A (en) Display device and image recognition method

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant