KR20180123998A - Image displaying method, apparatus and computer readable recording medium - Google Patents

Image displaying method, apparatus and computer readable recording medium Download PDF

Info

Publication number
KR20180123998A
KR20180123998A KR1020180134869A KR20180134869A KR20180123998A KR 20180123998 A KR20180123998 A KR 20180123998A KR 1020180134869 A KR1020180134869 A KR 1020180134869A KR 20180134869 A KR20180134869 A KR 20180134869A KR 20180123998 A KR20180123998 A KR 20180123998A
Authority
KR
South Korea
Prior art keywords
image
terminal
images
stream
face
Prior art date
Application number
KR1020180134869A
Other languages
Korean (ko)
Other versions
KR101967651B1 (en
Inventor
안상일
정강식
용현택
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to KR1020180134869A priority Critical patent/KR101967651B1/en
Publication of KR20180123998A publication Critical patent/KR20180123998A/en
Application granted granted Critical
Publication of KR101967651B1 publication Critical patent/KR101967651B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

Disclosed are a method and an apparatus for displaying an image which can induce a sound video call between users, and a computer readable recording medium. According to an embodiment of the present invention, the method for displaying an image comprises the steps of: receiving, from a first terminal, a stream including a plurality of images photographed by the first terminal; detecting a face from each of one or more sample images selected among the plurality of images included in the stream; detecting a skin color from each of the sample images; processing the image in an area where the skin color is detected in response to a result of detecting the face and the skin color; and displaying the plurality of images included in the stream.

Description

영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체{IMAGE DISPLAYING METHOD, APPARATUS AND COMPUTER READABLE RECORDING MEDIUM}[0001] IMAGE DISPLAYING METHOD, APPARATUS AND COMPUTER READABLE RECORDING MEDIUM [0002]

본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방에 의해 부적절한 영상에 노출되는 것을 방지하기 위한 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체에 관한 것이다.The present invention relates to an image display method, an apparatus, and a computer-readable recording medium for preventing a user performing a video call from being exposed to an inappropriate image by a video communication party.

통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말이 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 휴대용 개인 단말이 널리 보급되고 있다. 상기 단말의 대부분은 통신 기능을 포함하고 있다. 사용자는 단말을 이용하여 인터넷에서 검색을 수행하거나 다른 사용자와 메시지를 주고받을 수 있다.With the development of communication technology and the miniaturization of electronic devices, personal terminals have become widespread to general consumers. In recent years, portable personal terminals such as a smart phone or a smart tablet have become widespread. Most of the terminals include a communication function. The user can perform a search on the Internet or exchange messages with other users using the terminal.

또한, 소형 카메라 기술, 소형 마이크 기술, 소형 디스플레이 기술 및 소형 스피커 기술의 발전에 따라 스마트폰과 같은 대부분의 단말에는 카메라, 마이크, 디스플레이 및 스피커가 포함되어 있다. 사용자는 단말을 이용하여 음성을 녹음하거나 음성이 포함된 동영상을 촬영할 수 있다. 사용자는 단말에 포함된 스피커를 통해 상기 녹음된 음성을 확인하거나 디스플레이를 통해 상기 촬영된 동영상을 확인할 수 있다.In addition, with the development of small camera technology, small microphone technology, small display technology and small speaker technology, most terminals such as smart phones include cameras, microphones, displays and speakers. A user can record a voice using the terminal or a video including voice. The user can check the recorded voice through a speaker included in the terminal or confirm the photographed moving picture through a display.

또한, 사용자는 단말의 통신 기능을 이용하여 상기 녹음된 음성 또는 상기 촬영된 동영상을 다른 사용자와 공유할 수 있다. 사용자는 이전에 녹음된 음성 또는 이전에 촬영된 동영상을 다른 사용자에게 전송할 수 있다. 또한, 사용자는 단말에 의해 현재 녹음되고 있는 음성 또는 현재 촬영되고 있는 동영상을 실시간으로 다른 사용자에게 전송할 수 있다.Also, the user can share the recorded voice or the photographed moving picture with other users by using the communication function of the terminal. The user can transmit a previously recorded voice or a previously photographed video to another user. In addition, the user can transmit the voice currently being recorded by the terminal or the moving picture currently being photographed to another user in real time.

또한, 동시에, 상기 다른 사용자는 자신의 단말에 의해 현재 녹음되고 있는 음성 또는 현재 촬영되고 있는 동영상을 실시간으로 상기 사용자에게 전송할 수 있다. 사용자의 단말에 포함된 디스플레이는 사용자의 단말에 의해 현재 촬영되고 있는 동영상 및 다른 사용자의 단말에 의해 현재 촬영되고 있는 동영상을 동시에 표시할 수 있다. 또한, 사용자의 단말에 포함된 스피커는 다른 사용자의 단말에 의해 현재 녹음되고 있는 음성을 동시에 재생할 수 있다. 다시 말해서, 사용자 및 다른 사용자는 각자의 단말을 이용하여 서로 영상 통화(video call)를 할 수 있다.Also, at the same time, the other user can transmit the voice currently being recorded by the terminal or the moving picture currently being photographed to the user in real time. The display included in the user terminal can simultaneously display the moving image currently being photographed by the user's terminal and the moving image currently being photographed by another user's terminal. In addition, the speaker included in the user terminal can simultaneously reproduce the voice currently being recorded by the terminal of another user. In other words, users and other users can make video calls with each other using their terminals.

상기 사용자 및 다른 사용자는 서로 이미 아는 관계일 수도 있고, 서로 모르는 관계일 수도 있다. 상기 사용자의 단말 및 상기 다른 사용자의 단말을 포함한 복수의 단말은 서버에 연결될 수 있다. 서버는 상기 사용자의 단말 및 상기 다른 사용자의 단말 사이를 중개할 수 있다. 따라서, 상기 사용자 및 다른 사용자는 서로 모르는 관계였다고 하더라도 서버의 중개를 통해 서로 영상 통화를 할 수 있다.The user and the other user may have an already known relationship with each other or an unknown relationship with each other. A plurality of terminals including the terminal of the user and the terminal of the other user may be connected to the server. The server can mediate between the terminal of the user and the terminal of the other user. Therefore, even though the user and the other users have no relationship with each other, they can make video calls with each other through intermediation of the server.

사용자가 상대방과 서로 영상 통화를 할 때, 사용자는 상대방으로부터의 음란한 영상에 노출될 수 있다. 특히, 사용자가 서로 모르는 관계에 있는 상대방과 영상 통화를 하는 경우 사용자가 상대방으로부터의 음란한 영상에 노출될 가능성이 높을 수 있다.When the user makes a video call with the other party, the user can be exposed to the obscene video from the other party. In particular, when a user makes a video call with a partner having an unknown relationship with each other, there is a high possibility that the user is exposed to obscene images from the other party.

예를 들어, 상대방의 단말에 의해 촬영된 상대방의 벌거벗은 신체의 영상이 영상 통화 세션을 통해 사용자의 단말에 수신될 수 있다. 사용자의 단말이 상기 수신된 영상을 표시함으로써 사용자는 음란한 영상에 노출될 수 있다. 사용자가 자신이 원하지 않는 음란한 영상에 노출된 경우 사용자는 성적 수치심 또는 불쾌함을 느낄 수 있다.For example, a naked body image of the other party photographed by the other party's terminal can be received at the user's terminal through a video call session. The user's terminal displays the received image so that the user can be exposed to the sexually explicit image. If the user is exposed to an obscene video that he does not want, the user may feel sexual shame or discomfort.

본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방에 의해 부적절한 영상에 노출되는 것을 방지하기 위한 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an image display method, an apparatus, and a computer readable recording medium for preventing a user who performs a video call from being exposed to an inappropriate image by a video communication party.

또한, 본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방이 제공하는 영상에 의해 성적 수치심 또는 불쾌함을 느끼는 것을 방지할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.It is another object of the present invention to provide an image display method, an apparatus, and a computer readable recording medium capable of preventing a user who performs a video call from feeling sexual bullies or uncomfortable images by video provided by a video caller do.

또한, 본 발명은 사용자 간의 건전한 영상 통화를 유도할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.It is another object of the present invention to provide an image display method, apparatus, and computer readable recording medium that can induce a sound video call between users.

본 발명의 일 실시예에 따른 영상 표시 방법은, 제1 단말로부터 상기 제1 단말에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 단계, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 단계, 상기 샘플 영상 각각에서 피부색을 검출하는 단계, 상기 안면과 상기 피부색 검출 결과에 대응하여 상기 피부색이 검출된 영역에 영상 처리를 수행하는 단계 및 상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계를 포함한다.A video display method according to an embodiment of the present invention includes receiving a stream including a plurality of videos photographed by the first terminal from a first terminal, receiving at least one video selected from the plurality of videos included in the stream Detecting a face in each of the sample images, detecting a skin color in each of the sample images, performing image processing in an area in which the skin color is detected corresponding to the face and the skin color detection result, And displaying the plurality of images.

또한, 상기 안면을 검출하는 단계에서 안면이 검출되지 않고, 상기 피부색을 검출하는 단계에서 피부색이 검출되면, 상기 영상 처리를 수행하는 단계에서는 상기 피부색이 검출된 영역에 상기 영상 처리를 수행할 수 있다.If the face is not detected in the step of detecting the face and the skin color is detected in the step of detecting the skin color, the image processing may be performed in the region where the skin color is detected in the step of performing the image processing .

또한, 상기 영상 처리를 수행하는 단계는, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 대상 영상을 선택하는 단계, 각각의 상기 대상 영상 내에서 적어도 일부의 대상 영역을 선택하는 단계 및 각각의 상기 대상 영상의 상기 선택된 대상 영역에 상기 영상 처리를 수행하는 단계를 포함하고, 상기 대상 영역은 상기 피부색이 검출된 영역에 대응할 수 있다.The step of performing the image processing may include selecting at least one target image among the plurality of images included in the stream, selecting at least a part of target areas in each target image, And performing the image processing on the selected target area of the target image, wherein the target area may correspond to the area where the skin color is detected.

또한, 상기 안면을 검출하는 단계는, 상기 스트림에 포함된 상기 복수의 영상 중에서 최근의 특정한 시간에 대응하는 적어도 하나 이상의 샘플 스트림을 선택하는 단계 및 상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면을 검출하는 단계를 포함할 수 있다.In addition, the step of detecting the face may include the steps of: selecting at least one sample stream corresponding to a recent specific time among the plurality of images included in the stream; and detecting the face in the selected at least one sample image Step < / RTI >

또한, 상기 안면을 검출하는 단계는, 특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 스트림을 선택하는 단계 및 상기 새로운 샘플 스트림이 선택될 때마다 상기 새로운 샘플 스트림에서 안면을 검출하는 단계를 포함할 수 있다.In addition, the step of detecting the face includes selecting a new sample stream among the newly received images in the stream for each particular period, and detecting the face in the new sample stream each time the new sample stream is selected can do.

또한, 상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응할 수 있다.In addition, the image processing may correspond to an operation of applying a blur effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.

한편, 본 발명의 다른 실시예에 따른 영상 표시 방법은, 제1 단말이 상기 제1 단말과 영상 통화 세션이 수립된 제2 단말로부터 연속되는 복수의 영상을 포함하는 영상 스트림을 수신하는 단계, 상기 제1 단말이 상기 복수의 영상 각각에 안면이 존재하는지 여부를 판단하는 단계, 안면이 존재하지 않는 영상에서 피부색을 검출하는 단계, 상기 피부색 검출 결과에 대응하여 상기 안면이 존재하지 않는 영상에 영상 처리를 수행하는 단계 및 상기 제1 단말이 출력부를 통해 상기 영상 처리가 수행된 영상 스트림을 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided an image display method including: receiving a video stream including a plurality of consecutive images from a second terminal, in which a first terminal establishes a video call session with the first terminal; Determining whether a facial image exists in each of the plurality of images by the first terminal, detecting a skin color in an image in which the facial image does not exist, performing image processing on the image in which the facial image does not exist And displaying the video stream on which the image processing has been performed through the output unit of the first terminal.

또한, 상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응할 수 있다.In addition, the image processing may correspond to an operation of applying a blur effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.

한편, 본 발명에 따른 영상 표시 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 제공될 수 있다.Meanwhile, a computer-readable recording medium on which a program for performing an image display method according to the present invention is recorded can be provided.

한편, 본 발명의 일 실시예에 따른 영상 표시 장치는, 제1 단말로부터 상기 제1 단말에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 통신부, 상기 스트림에 포함된 상기 복수의 영상을 표시하는 출력부 및 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 제어부를 포함하고, 상기 제어부는 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않는 경우, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행하고, 상기 출력부는 상기 영상 처리가 수행된 상기 적어도 하나 이상의 영상을 표시한다.According to another aspect of the present invention, there is provided an image display apparatus including a communication unit that receives a stream including a plurality of images taken by the first terminal from a first terminal, a communication unit that displays the plurality of images included in the stream And a controller for detecting a face in each of at least one or more sample images selected from among the plurality of images included in the stream, wherein the controller is configured to determine whether the face is detected in at least some sample images of the sample images The image processing unit performs image processing on at least one image among the plurality of images included in the stream, and the output unit displays the at least one image on which the image processing is performed.

또한, 상기 제어부는 상기 안면이 검출되지 않은 샘플 영상에서 피부색이 검출되는 경우 상기 피부색이 검출된 영역에 상기 영상 처리를 수행할 수 있다.Also, the controller may perform the image processing on a region where the skin color is detected when a skin color is detected from a sample image in which the face is not detected.

또한, 상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응할 수 있다.In addition, the image processing may correspond to an operation of applying a blur effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.

본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방에 의해 부적절한 영상에 노출되는 것을 방지하기 위한 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.The present invention can provide an image display method, an apparatus, and a computer readable recording medium for preventing a user who performs a video call from being exposed to an inappropriate image by a video communication party.

또한, 본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방이 제공하는 영상에 의해 성적 수치심 또는 불쾌함을 느끼는 것을 방지할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.In addition, the present invention can provide an image display method, an apparatus, and a computer-readable recording medium that can prevent a user who performs a video call from feeling a sexual shame or an unpleasantness by an image provided by a video caller.

또한, 본 발명은 사용자 간의 건전한 영상 통화를 유도할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.In addition, the present invention can provide an image display method, an apparatus, and a computer readable recording medium that can induce a sound video call between users.

도 1은 실시예에 따른 영상 표시 장치가 동작하는 환경을 나타내는 네트워크 구성도이다.
도 2는 실시예에 따른 영상 표시 장치의 구성을 나타내는 블록도이다.
도 3은 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다.
도 4는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 샘플 영상이다.
도 5는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 다른 샘플 영상이다.
도 6은 실시예에 따른 영상 처리를 수행하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 7은 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 8은 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다.
도 9는 다른 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 10은 또 다른 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 11은 또 다른 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다.
도 12는 또 다른 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 13은 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다.
도 14는 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다.
도 15는 또 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다.
도 16은 실시예에 따른 영상 처리가 수행된 영상이다.
도 17은 다른 실시예에 따른 영상 처리가 수행된 영상이다.
도 18은 또 다른 실시예에 따른 영상 처리가 수행된 영상이다.
도 19는 또 다른 실시예에 따른 영상 처리가 수행된 영상이다.
도 20은 다른 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다.
1 is a network configuration diagram illustrating an environment in which an image display apparatus according to an embodiment operates.
2 is a block diagram showing a configuration of a video display device according to an embodiment.
3 is a flowchart illustrating a process of performing an image display method according to an embodiment.
4 is a sample image selected from a plurality of images included in the stream according to the embodiment.
5 is another sample image selected from a plurality of images included in the stream according to the embodiment.
6 is a flowchart illustrating a process of performing an image process according to an embodiment.
FIG. 7 is a flowchart illustrating a process of detecting a face and selecting a target image according to an exemplary embodiment of the present invention.
8 is a reference diagram for explaining a method of selecting a sample image according to an embodiment.
FIG. 9 is a flowchart illustrating a process of detecting a face and selecting a target image according to another embodiment.
FIG. 10 is a flowchart illustrating a process of detecting a facial image and selecting a target image according to another embodiment of the present invention.
11 is a reference diagram for explaining a method of selecting a sample image according to another embodiment.
FIG. 12 is a flowchart illustrating a process of detecting a facial face and selecting a target image according to another embodiment.
13 is a reference view showing a selected object area according to an embodiment.
14 is a reference view showing a selected object area according to another embodiment.
15 is a reference view showing a selected object area according to another embodiment.
16 is an image in which the image processing according to the embodiment is performed.
17 is an image in which image processing according to another embodiment is performed.
18 is an image in which image processing according to another embodiment is performed.
FIG. 19 is an image in which image processing according to another embodiment is performed.
20 is a flowchart illustrating a process of performing an image display method according to another embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.Although "first" or "second" and the like are used to describe various components, such components are not limited by such terms. Such terms may be used to distinguish one element from another. Therefore, the first component mentioned below may be the second component within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. &Quot; comprises "or" comprising "as used herein mean that the stated element or step does not exclude the presence or addition of one or more other elements or steps.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms used herein are to be construed in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

이하에서는, 도 1 내지 도 20을 참조하여 실시예에 따른 영상 표시 장치(100, 150) 및 영상 표시 방법에 대해 상세히 설명하기로 한다.Hereinafter, the video display devices 100 and 150 and the video display method according to the embodiment will be described in detail with reference to FIGS. 1 to 20. FIG.

도 1은 실시예에 따른 영상 표시 장치(100, 150)가 동작하는 환경을 나타내는 네트워크 구성도이다. 도 1을 참조하면, 영상 표시 장치(100, 150)가 동작하는 환경은 제1 영상 표시 장치(100), 및 상기 제1 영상 표시 장치(100)와 서로 연결된 제2 영상 표시 장치(150)를 포함할 수 있다.1 is a network configuration diagram illustrating an environment in which the video display devices 100 and 150 according to the embodiment operate. 1, an environment in which the image display devices 100 and 150 operate includes a first image display device 100 and a second image display device 150 connected to the first image display device 100 .

다른 실시예에 따르면, 상기 영상 표시 장치(100, 150)가 동작하는 환경은 상기 제1 영상 표시 장치(100) 또는 상기 제2 영상 표시 장치(150)와 서로 연결된 서버(200)를 더 포함할 수 있다. 상기 영상 표시 장치(100, 150)가 동작하는 환경은 상기 서버(200)를 포함하지 않을 수 있다.According to another embodiment, the environment in which the video display devices 100 and 150 operate may further include a server 200 connected to the first video display device 100 or the second video display device 150 . The environment in which the image display apparatuses 100 and 150 operate may not include the server 200.

제1 영상 표시 장치(100)는 단말일 수 있다. 이하에서는 설명의 편의를 위해 제1 영상 표시 장치(100)를 가리키는 용어로서 제1 영상 표시 장치(100) 및 제1단말(100)을 혼용하기로 한다.The first image display apparatus 100 may be a terminal. Hereinafter, for convenience of description, the first video display device 100 and the first terminal 100 are used as a combination of the first video display device 100 and the first video display device 100. [

제1단말(100)은 예를 들어, 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 스마트 워치, 이동 단말, 디지털 카메라, 웨어러블 디바이스(wearable device), 또는 휴대용 전자기기 등일 수 있다. 제1단말(100)은 프로그램 또는 애플리케이션을 실행할 수 있다.The first terminal 100 may be, for example, a desktop computer, a laptop computer, a smart phone, a smart tablet, a smart watch, a mobile terminal, a digital camera, a wearable device, or a portable electronic device. The first terminal 100 may execute a program or an application.

제1단말(100)은 통신망에 연결될 수 있다. 제1단말(100)은 상기 통신망을 통해 외부의 다른 장치와 서로 연결될 수 있다. 제1단말(100)은 서로 연결된 다른 장치에 데이터를 전송하거나 상기 다른 장치로부터 데이터를 수신할 수 있다.The first terminal 100 may be connected to a communication network. The first terminal 100 may be connected to another external device through the communication network. The first terminal 100 may transmit data to or receive data from other devices connected to each other.

제1단말(100)과 연결된 통신망은 유선 통신망, 무선 통신망, 또는 복합 통신망을 포함할 수 있다. 통신망은 3G, LTE, 또는 LTE-A 등과 같은 이동 통신망을 포함할 수 있다. 통신망은 와이파이(Wi-Fi), UMTS/GPRS, 또는 이더넷(Ethernet) 등과 같은 유선 또는 무선 통신망을 포함할 수 있다. 통신망은 마그네틱 보안 전송(MST, Magnetic Secure Transmission), RFID(Radio Frequency IDentification), NFC(Near Field Communication), 지그비(ZigBee), Z-Wave, 블루투스(Bluetooth), 저전력 블루투스(BLE, Bluetooth Low Energy), 또는 적외선 통신(IR, InfraRed communication) 등과 같은 근거리 통신망을 포함할 수 있다. 통신망은 근거리 네트워크(LAN, Local Area Network), 도시권 네트워크(MAN, Metropolitan Area Network), 또는 광역 네트워크(WAN, Wide Area Network) 등을 포함할 수 있다.The communication network connected to the first terminal 100 may include a wired communication network, a wireless communication network, or a hybrid communication network. The communication network may include a mobile communication network such as 3G, LTE, or LTE-A. The communication network may include wired or wireless communication networks such as Wi-Fi, UMTS / GPRS, or Ethernet. The communication network can be classified into MST (Secure Transmission), RFID (Radio Frequency IDentification), NFC (Near Field Communication), ZigBee, Z-Wave, Bluetooth, Bluetooth low energy (BLE) , Or a local area network such as infrared (IR) communication. The communication network may include a local area network (LAN), a metropolitan area network (MAN), or a wide area network (WAN).

도 2는 실시예에 따른 영상 표시 장치(100, 150)의 구성을 나타내는 블록도이다. 도 2를 참조하면, 실시예에 따른 영상 표시 장치(100, 150)는 입력부(101), 제어부(102), 저장부(103), 통신부(104), 및 출력부(105)를 포함할 수 있다.2 is a block diagram showing the configuration of the video display devices 100 and 150 according to the embodiment. 2, the image display apparatuses 100 and 150 according to the embodiment may include an input unit 101, a control unit 102, a storage unit 103, a communication unit 104, and an output unit 105 have.

입력부(101)는 외부로부터 신호를 수신할 수 있다. 입력부(101)는 영상 표시 장치(100, 150)의 사용자로부터 신호를 수신할 수 있다. 또한, 입력부(101)는 외부 장치로부터 신호를 수신할 수 있다. 입력부(101)는 예를 들어, 마이크, 카메라, 키보드, 마우스, 트랙볼, 터치스크린, 버튼, 스위치, 센서, 네트워크 인터페이스, 또는 기타 입력 장치를 포함할 수 있다.The input unit 101 can receive a signal from the outside. The input unit 101 may receive a signal from a user of the video display devices 100 and 150. [ Further, the input unit 101 can receive a signal from an external device. The input unit 101 may include, for example, a microphone, a camera, a keyboard, a mouse, a trackball, a touch screen, a button, a switch, a sensor, a network interface or other input device.

입력부(101)는 입력부(101)에 포함된 카메라를 통해 외부로부터 빛을 수신할 수 있다. 입력부(101)는 외부의 사물로부터 방출된 빛 또는 외부의 사물에서 반사된 빛을 수신할 수 있다. 입력부(101)는 상기 카메라를 통해 영상 표시 장치(100, 150)의 사용자의 영상을 촬영할 수 있다. The input unit 101 can receive light from the outside through a camera included in the input unit 101. [ The input unit 101 can receive light emitted from an external object or light reflected from an external object. The input unit 101 may photograph an image of a user of the image display apparatuses 100 and 150 through the camera.

입력부(101)는 입력부(101)에 포함된 마이크를 통해 외부로부터 음성을 수신할 수 있다. 입력부(101)는 영상 표시 장치(100, 150)의 사용자로부터 음성을 수신할 수 있다. 또한, 입력부(101)는 외부의 음성 재생 장치로부터 음성을 수신할 수 있다. 입력부(101)는 상기 마이크를 통해 영상 표시 장치(100, 150)의 사용자의 음성을 녹음할 수 있다.The input unit 101 can receive a voice from outside through a microphone included in the input unit 101. [ The input unit 101 can receive a voice from a user of the video display devices 100 and 150. [ Further, the input unit 101 can receive voice from an external audio reproduction apparatus. The input unit 101 can record the user's voice of the video display devices 100 and 150 through the microphone.

제어부(102)는 영상 표시 장치(100, 150)의 동작을 제어할 수 있다. 제어부(102)는 영상 표시 장치(100, 150)에 포함된 각각의 구성요소와 서로 연결될 수 있다. 제어부(102)는 영상 표시 장치(100, 150)에 포함된 각각의 구성요소의 동작을 제어할 수 있다.The control unit 102 can control the operation of the video display devices 100 and 150. [ The control unit 102 may be connected to each of the components included in the image display apparatuses 100 and 150. The control unit 102 may control the operation of each component included in the video display devices 100 and 150.

제어부(102)는 신호를 처리할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호를 처리할 수 있다. 예를 들어, 제어부(102)는 입력부(101)를 통해 수신된 사용자의 요청을 처리할 수 있다. 제어부(102)는 입력부(101)에 포함된 카메라에 의해 촬영된 사용자의 영상을 처리할 수 있다. 제어부(102)는 입력부(101)에 포함된 마이크에 의해 녹음된 사용자의 음성을 처리할 수 있다.The control unit 102 can process the signal. The control unit 102 can process the signal received by the input unit 101. [ For example, the control unit 102 may process the user's request received through the input unit 101. [ The control unit 102 can process the user's image captured by the camera included in the input unit 101. [ The control unit 102 can process the voice of the user recorded by the microphone included in the input unit 101. [

제어부(102)는 통신부(104)에 의해 수신된 신호를 처리할 수 있다. 예를 들어, 제어부(102)는 통신부(104)를 통해 수신된 사용자의 요청을 처리할 수 있다. 제어부(102)는 통신부(104)를 통해 수신된 다른 사용자의 영상 또는 음성을 처리할 수 있다.The control unit 102 can process the signal received by the communication unit 104. [ For example, the control unit 102 may process the user's request received through the communication unit 104. [ The control unit 102 can process video or audio of another user received through the communication unit 104. [

제어부(102)는 입력부(101)에 의해 수신된 신호에 대한 응답으로, 영상 표시 장치(100, 150)의 동작을 제어할 수 있다. 제어부(102)는 입력부(101)를 통해 수신된 사용자의 요청에 대한 응답으로, 영상 표시 장치(100, 150)의 동작을 제어할 수 있다.The control unit 102 can control the operation of the video display devices 100 and 150 in response to the signal received by the input unit 101. [ The control unit 102 can control the operation of the video display devices 100 and 150 in response to the user's request received through the input unit 101. [

제어부(102)는 연산을 수행할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호에 따라 연산을 수행할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호 또는 저장부(103)에 저장된 데이터를 이용하여 연산을 수행할 수 있다. 예를 들어, 제어부(102)는 입력부(101)에 포함된 카메라에 의해 촬영된 영상을 인코딩할 수 있다. 제어부(102)는 입력부(101)에 포함된 마이크에 의해 녹음된 음성을 인코딩할 수 있다.The control unit 102 may perform an operation. The control unit 102 may perform an operation according to a signal received by the input unit 101. [ The control unit 102 may perform an operation using the signal received by the input unit 101 or the data stored in the storage unit 103. For example, the control unit 102 may encode an image captured by a camera included in the input unit 101. [ The control unit 102 can encode the voice recorded by the microphone included in the input unit 101. [

제어부(102)는 통신부(104)에 의해 수신된 다른 사용자의 영상 또는 음성을 디코딩할 수 있다. 제어부(102)는 상기 디코딩된 영상 또는 음성에 후처리(postprocessing)를 수행할 수 있다. 예를 들어, 제어부(102)는 통신부(104)에 의해 수신된 다른 사용자의 영상에 영상 처리(image processing)를 수행할 수 있다.The control unit 102 can decode the video or audio of another user received by the communication unit 104. [ The control unit 102 may perform postprocessing on the decoded image or voice. For example, the control unit 102 may perform image processing on an image of another user received by the communication unit 104. [

제어부(102)는 연산 결과가 저장부(103)에 저장되도록 제어할 수 있다. 제어부(102)는 연산 결과가 출력부(105)에 의해 출력되도록 제어할 수 있다.The control unit 102 can control the calculation result to be stored in the storage unit 103. [ The control unit 102 can control so that the calculation result is outputted by the output unit 105. [

제어부(102)는 예를 들어, 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphic Processing Unit, GPU), 마이크로컨트롤러유닛(Micro Controller Unit, MCU), 또는 마이크로프로세서(microprocessor)를 포함할 수 있다.The control unit 102 includes, for example, a central processing unit (CPU), a graphic processing unit (GPU), a microcontroller unit (MCU), or a microprocessor can do.

저장부(103)는 데이터를 저장할 수 있다. 저장부(103)는 제어부(102)가 연산을 수행하는 데에 이용할 데이터를 저장할 수 있다. 저장부(103)는 제어부(102)에 의해 수행된 연산 결과를 저장할 수 있다. 예를 들어, 저장부(103)는 제어부(102)에 의해 인코딩된 영상 또는 음성을 저장할 수 있다. 저장부(103)는 통신부(104)를 통해 외부로 전송할 데이터를 저장하거나 통신부(104)를 통해 외부로부터 수신된 데이터를 저장할 수 있다.The storage unit 103 may store data. The storage unit 103 may store data to be used by the control unit 102 to perform the operation. The storage unit 103 may store the operation result performed by the control unit 102. For example, the storage unit 103 may store an image or a voice encoded by the control unit 102. [ The storage unit 103 may store data to be transmitted to the outside through the communication unit 104 or may store data received from the outside through the communication unit 104. [

저장부(103)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 저장부(103)는 예를 들어, 플래시(flash) 메모리, ROM, RAM, EEROM, EPROM, EEPROM, 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 등을 포함할 수 있다. 저장부(103)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.The storage unit 103 may include a volatile memory or a non-volatile memory. The storage unit 103 may include, for example, a flash memory, a ROM, a RAM, an EEROM, an EPROM, an EEPROM, a hard disk drive (HDD) The storage unit 103 may include, for example, a file system, a database, or an embedded database.

통신부(104)는 외부에 데이터를 전송하거나 외부로부터 데이터를 수신할 수 있다. 통신부(104)는 다른 영상 표시 장치(100, 150) 또는 서버(200)에 데이터를 전송할 수 있다. 통신부(104)는 다른 영상 표시 장치(100, 150) 또는 서버(200)로부터 데이터를 수신할 수 있다. 통신부(104)는 제어부(102)에 의해 수행된 연산 결과를 외부에 전송할 수 있다. 또한, 통신부(104)는 저장부(103)에 저장된 데이터를 외부에 전송할 수 있다. 통신부(104)는 제어부(102)가 연산을 수행하는 데에 이용할 데이터를 외부로부터 수신할 수 있다.The communication unit 104 can transmit data to the outside or receive data from the outside. The communication unit 104 can transmit data to the other video display devices 100 and 150 or the server 200. [ The communication unit 104 can receive data from the other video display devices 100 and 150 or the server 200. [ The communication unit 104 can transmit the calculation result performed by the control unit 102 to the outside. Also, the communication unit 104 can transmit the data stored in the storage unit 103 to the outside. The communication unit 104 can receive data from the outside for use by the control unit 102 to perform the calculation.

통신부(104)에 의해 전송될 데이터 또는 통신부(104)에 의해 수신된 데이터는 저장부(103)에 저장될 수 있다. 예를 들어, 통신부(104)는 저장부(103)에 저장된 인코딩된 영상 또는 음성을 서버(200) 또는 다른 영상 표시 장치(100, 150)에 전송할 수 있다. 또한, 통신부(104)는 다른 영상 표시 장치(100, 150)로부터 상기 다른 영상 표시 장치(100, 150)에 의해 인코딩된 영상 또는 음성을 수신할 수 있다.The data to be transmitted by the communication unit 104 or the data received by the communication unit 104 may be stored in the storage unit 103. [ For example, the communication unit 104 may transmit the encoded video or audio stored in the storage unit 103 to the server 200 or other video display devices 100 and 150. In addition, the communication unit 104 can receive images or voices encoded by the other video display devices 100 and 150 from the other video display devices 100 and 150.

통신부(104)는 예를 들어, 3G 모듈, LTE 모듈, LTE-A 모듈, Wi-Fi 모듈, 와이기그(WiGig) 모듈, UWB(Ultra Wide Band) 모듈, 또는 랜카드 등과 같은 원거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(104)는 마그네틱 보안 전송(MST, Magnetic Secure Transmission) 모듈, 블루투스 모듈, NFC 모듈, RFID 모듈, 지그비(ZigBee) 모듈, Z-Wave 모듈, 또는 적외선 모듈 등과 같은 근거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(104)는 기타 네트워크 인터페이스를 포함할 수 있다.The communication unit 104 may include a remote network interface such as a 3G module, an LTE module, an LTE-A module, a Wi-Fi module, a WiGig module, an UWB (Ultra Wide Band) module, . The communication unit 104 may include a short-range network interface such as a magnetic secure transmission (MST) module, a Bluetooth module, an NFC module, an RFID module, a ZigBee module, a Z-Wave module, can do. In addition, the communication unit 104 may include other network interfaces.

출력부(105)는 외부에 신호를 출력할 수 있다. 출력부(105)는 예를 들어, 화면을 표시하거나, 소리를 재생하거나, 또는 진동을 출력할 수 있다. 출력부(105)는 디스플레이, 스피커, 바이브레이터, 오실레이터, 또는 기타 출력 장치를 포함할 수 있다.The output unit 105 can output a signal to the outside. The output unit 105 can display a screen, reproduce sound, or output a vibration, for example. Output 105 may include a display, a speaker, a vibrator, an oscillator, or other output device.

출력부(105)는 화면을 표시할 수 있다. 제어부(102)는 출력부(105)가 화면을 표시하도록 출력부(105)를 제어할 수 있다. 출력부(105)는 사용자 인터페이스를 표시할 수 있다. 출력부(105)는 사용자로부터의 입력에 대한 응답으로 다른 화면을 표시할 수 있다.The output unit 105 can display a screen. The control unit 102 can control the output unit 105 so that the output unit 105 displays a screen. The output unit 105 may display a user interface. The output unit 105 can display another screen in response to the input from the user.

출력부(105)는 데이터를 표시할 수 있다. 출력부(105)는 제어부(102)에 의해 수행된 연산 결과를 표시할 수 있다. 출력부(105)는 저장부(103)에 저장된 데이터를 표시할 수 있다. 출력부(105)는 통신부(104)에 의해 수신된 데이터를 표시할 수 있다.The output unit 105 can display data. The output unit 105 may display the result of the operation performed by the control unit 102. The output unit 105 may display the data stored in the storage unit 103. [ The output unit 105 can display the data received by the communication unit 104. [

출력부(105)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 또는 PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 출력부(105)는 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 출력부(105)는 터치스크린을 포함할 수 있다.The output unit 105 may include a flat panel display device such as a liquid crystal display (LCD), an organic light emitting diode (OLED), or a plasma display panel (PDP). The output unit 105 may include a curved display or a flexible display. The output unit 105 may include a touch screen.

출력부(105)는 제1 영상 표시 장치(100)에 의해 촬영된 사용자의 영상 또는 제2 영상 표시 장치(150)에 의해 촬영된 다른 사용자의 영상을 표시할 수 있다. 또한, 출력부(105)는 제1 영상 표시 장치(100)에 의해 녹음된 사용자의 음성 또는 제2 영상 표시 장치(150)에 의해 녹음된 다른 사용자의 음성을 재생할 수 있다.The output unit 105 may display an image of a user photographed by the first image display device 100 or an image of another user photographed by the second image display device 150. [ The output unit 105 may reproduce the voice of the user recorded by the first video display device 100 or the voice of another user recorded by the second video display device 150. [

제2 영상 표시 장치(150)는 단말일 수 있다. 이하에서는 설명의 편의를 위해 제2 영상 표시 장치(150)를 가리키는 용어로서 제2 영상 표시 장치(150) 및 제2단말(150)을 혼용하기로 한다.The second image display device 150 may be a terminal. Hereinafter, for the sake of convenience, the second video display device 150 and the second terminal 150 are used in combination as the terms of the second video display device 150.

제2단말(150)은 제1단말(100)과 서로 동일한 종류의 단말일 수도 있고, 서로 다른 종류의 단말일 수도 있다. 제2단말(150)은 프로그램 또는 애플리케이션을 실행할 수 있다.The second terminal 150 may be a terminal of the same type as the first terminal 100, or may be a terminal of a different type. The second terminal 150 may execute a program or an application.

제2단말(150)은 통신망에 연결될 수 있다. 제2단말(150)은 상기 통신망을 통해 외부의 다른 장치와 서로 연결될 수 있다. 제2단말(150)은 서로 연결된 다른 장치에 데이터를 전송하거나 상기 다른 장치로부터 데이터를 수신할 수 있다.The second terminal 150 may be connected to a communication network. The second terminal 150 may be connected to another external device through the communication network. The second terminal 150 may transmit data to or receive data from other devices connected to each other.

제2단말(150)은 상기 제1단말(100)과 서로 연결될 수 있다. 제2단말(150)은 상기 통신망을 통해 상기 제1단말(100)과 서로 연결될 수 있다. 제2단말(150)은 제1단말(100)에 데이터를 전송하거나 제1단말(100)로부터 데이터를 수신할 수 있다.And the second terminal 150 may be connected to the first terminal 100. [ The second terminal 150 may be connected to the first terminal 100 through the communication network. The second terminal 150 may transmit data to the first terminal 100 or receive data from the first terminal 100.

서로 연결된 제1단말(100) 및 제2단말(150)은 서로 메시지, 파일, 음성 데이터, 영상, 또는 동영상 등을 주고 받을 수 있다. 제2단말(150)은 제1단말(100)과의 음성 통화 세션 또는 영상 통화(video call) 세션을 수립할 수 있다. 상기 영상 통화 세션은 예를 들어, TCP(Transmission Control Protocol), UDP(User Datagram Protocol), 또는 WebRTC(Web Real-Time Communication) 등을 이용하여 수립될 수 있다. 제1단말(100)의 사용자 및 제2단말(150)의 사용자는 서로 음성 통화 또는 영상 통화를 할 수 있다.The first terminal 100 and the second terminal 150 connected to each other can exchange messages, files, voice data, images, moving images, and the like. The second terminal 150 can establish a voice call session or a video call session with the first terminal 100. [ The video call session may be established using, for example, Transmission Control Protocol (TCP), User Datagram Protocol (UDP), or Web Real-Time Communication (WebRTC). The user of the first terminal 100 and the user of the second terminal 150 can make a voice call or a video call with each other.

상기 영상 통화 세션은 제1단말(100) 및 제2단말(150) 사이에 직접적으로 수립될 수 있다. 다른 실시예에 따르면, 적어도 하나 이상의 다른 장치를 경유하여 제1단말(100) 및 제2단말(150) 사이에 영상 통화 세션이 수립될 수 있다. 예를 들어, 상기 영상 통화 세션은 제1단말(100)과 서버(200) 사이에 수립된 세션 및 서버(200)와 제2단말(150) 사이에 수립된 세션을 포함할 수 있다.The video call session may be established directly between the first terminal 100 and the second terminal 150. According to another embodiment, a video call session may be established between the first terminal 100 and the second terminal 150 via at least one or more other devices. For example, the video call session may include a session established between the first terminal 100 and the server 200, and a session established between the server 200 and the second terminal 150.

제1단말(100) 및 제2단말(150)은 서로 직접 데이터를 주고 받을 수 있다. 또한, 제1단말(100) 및 제2단말(150)은 서버(200) 또는 다른 중개 장치를 경유하여 서로 데이터를 주고 받을 수 있다.The first terminal 100 and the second terminal 150 can directly exchange data with each other. Also, the first terminal 100 and the second terminal 150 can exchange data with each other via the server 200 or another intermediary device.

서버(200)는 제1단말(100) 또는 제2단말(150)과 서로 연결될 수 있다. 서버(200)가 제1단말(100)과 서로 연결된 경우, 서버(200)는 제1단말(100)과 통신망을 통해 서로 데이터를 주고 받을 수 있다. 서버(200)가 제2단말(150)과 서로 연결된 경우, 서버(200)는 제2단말(150)과 통신망을 통해 서로 데이터를 주고 받을 수 있다.The server 200 may be connected to the first terminal 100 or the second terminal 150. When the server 200 is connected to the first terminal 100, the server 200 can exchange data with the first terminal 100 through a communication network. When the server 200 is connected to the second terminal 150, the server 200 can exchange data with the second terminal 150 through a communication network.

서버(200)는 제1단말(100)로부터 데이터를 수신할 수 있다. 서버(200)는 제1단말(100)로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(200)는 상기 연산 결과를 제1단말(100) 또는 제2단말(150)에 전송할 수 있다. 서버(200)는 제2단말(150)로부터 데이터를 수신할 수 있다. 서버(200)는 제2단말(150)로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(200)는 상기 연산 결과를 제1단말(100) 또는 제2단말(150)에 전송할 수 있다.The server 200 can receive data from the first terminal 100. [ The server 200 may perform an operation using data received from the first terminal 100. The server 200 may transmit the result of the calculation to the first terminal 100 or the second terminal 150. The server 200 may receive data from the second terminal 150. The server 200 may perform an operation using data received from the second terminal 150. The server 200 may transmit the result of the calculation to the first terminal 100 or the second terminal 150.

이하에서는, 도 3 내지 도 20을 참조하여 실시예에 따른 영상 표시 방법 내에서의 영상 표시 장치(100, 150)의 보다 구체적인 동작에 대하여 상세히 설명하기로 한다.Hereinafter, more detailed operations of the video display devices 100 and 150 in the video display method according to the embodiment will be described in detail with reference to FIGS. 3 to 20. FIG.

도 3은 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다. 도 3을 참조하면, 실시예에 따른 영상 표시 방법에서는, 먼저, 제1단말(100)로부터 상기 제1단말(100)에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 단계(S100)가 수행될 수 있다.3 is a flowchart illustrating a process of performing an image display method according to an embodiment. Referring to FIG. 3, in the video display method according to the embodiment, first, a step S100 of receiving a stream including a plurality of videos photographed by the first terminal 100 from the first terminal 100 .

제2단말(150)의 통신부(104)는 제1단말(100)과의 영상 통화 세션을 수립할 수 있다. 제2단말(150)의 통신부(104)는 상기 영상 통화 세션을 통해 제1단말(100)로부터 스트림을 수신할 수 있다. 상기 스트림은 복수의 영상을 포함할 수 있다. 예를 들어, 상기 스트림은 동영상(video) 또는 적어도 둘 이상의 정지 영상(still image)을 포함할 수 있다.The communication unit 104 of the second terminal 150 can establish a video call session with the first terminal 100. [ The communication unit 104 of the second terminal 150 may receive the stream from the first terminal 100 through the video call session. The stream may include a plurality of images. For example, the stream may include a video or at least two still images.

상기 스트림에 포함된 복수의 영상은 제1단말(100)의 입력부(101)에 포함된 카메라에 의해 촬영된 영상일 수 있다. 제2단말(150)은 제1단말(100)에 의해 연속적으로 촬영되고 있는 복수의 영상을 상기 스트림을 통해 연속적으로 수신할 수 있다.The plurality of images included in the stream may be images captured by a camera included in the input unit 101 of the first terminal 100. The second terminal 150 can successively receive a plurality of images continuously captured by the first terminal 100 through the stream.

상기 복수의 영상은 제1단말(100)의 사용자의 영상일 수 있다. 예를 들어, 상기 복수의 영상은 제1단말(100)의 사용자의 얼굴의 영상을 포함할 수 있다. 상기 복수의 영상은 제1단말(100)의 사용자의 신체의 영상을 포함할 수 있다.The plurality of images may be images of a user of the first terminal 100. For example, the plurality of images may include an image of a face of the user of the first terminal 100. The plurality of images may include an image of a user's body of the first terminal 100.

제2단말(150)은 제1단말(100)로부터 상기 스트림을 직접 수신할 수 있다. 다른 실시예에 따르면, 제2단말(150)은 제1단말(100)로부터 서버(200)를 경유하여 상기 스트림을 수신할 수 있다.The second terminal 150 may receive the stream directly from the first terminal 100. [ According to another embodiment, the second terminal 150 may receive the stream from the first terminal 100 via the server 200. [

다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면의 검출을 시도하는 단계(S110)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 스트림에 포함된 복수의 영상 중에서 적어도 하나 이상의 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 무작위로 또는 특정한 규칙에 따라 샘플 영상을 선택할 수 있다.Next, a step of attempting to detect a face in each of at least one or more sample images selected from the plurality of images included in the stream (S110) may be performed. The control unit 102 of the second terminal 150 can select at least one of the plurality of images included in the stream. The control unit 102 of the second terminal 150 may select a sample image randomly or according to a specific rule among the plurality of images.

예를 들어, 제2단말(150)의 제어부(102)는 특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 상기 스트림 내에서 가장 최근에 선택된 샘플 영상보다 더 나중에 수신된 모든 영상 중에서 새로운 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 무작위로 또는 특정한 규칙에 따라 상기 새로운 샘플 영상을 선택할 수 있다. For example, the control unit 102 of the second terminal 150 may select a new sample image among the newly received images in the stream for a specific period. The controller 102 of the second terminal 150 may select a new sample image from among all the images received later than the most recently selected sample image in the stream. The control unit 102 of the second terminal 150 may select the new sample image at random or according to a specific rule.

제2단말(150)의 제어부(102)는 상기 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면의 검출을 시도할 수 있다. 제2단말(150)의 제어부(102)는 예를 들어, OpenCV(Open Source Computer Vision)와 같은 오픈 소스(open source) 라이브러리 또는 다른 상용 프로그램을 이용하여 하나의 영상 내에 사람의 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다. 제2단말(150)의 제어부(102)는 각각의 샘플 영상마다 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.The control unit 102 of the second terminal 150 may attempt to detect the face in each of the at least one or more selected sample images. The control unit 102 of the second terminal 150 can display a portion corresponding to the face of a person in one image using an open source library such as OpenCV (Open Source Computer Vision) It is possible to detect whether or not it exists. The control unit 102 of the second terminal 150 can detect whether or not a portion corresponding to the face of each sample image exists.

도 4는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 샘플 영상이다. 또한, 도 5는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 다른 샘플 영상이다. 제2단말(150)의 제어부(102)는 도 4의 샘플 영상 및 도 5의 샘플 영상 각각에서 안면의 검출을 시도할 수 있다.4 is a sample image selected from a plurality of images included in the stream according to the embodiment. 5 is another sample image selected from a plurality of images included in the stream according to the embodiment. The control unit 102 of the second terminal 150 may attempt to detect the face in each of the sample image of Fig. 4 and the sample image of Fig.

다시 도 3을 참조하면, 다음으로, 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S120)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 각각의 샘플 영상마다 안면에 대응하는 부분지 존재하는지 여부를 판정할 수 있다. 상기 판정 결과, 제2단말(150)의 제어부(102)는 상기 샘플 영상 중에서 적어도 하나의 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다.Referring again to FIG. 3, a step (S120) may be performed in which it is determined that the face is not detected in at least some sample images among the sample images. The control unit 102 of the second terminal 150 can determine whether there is a portion corresponding to the face for each sample image. As a result of the determination, the control unit 102 of the second terminal 150 can determine that the face is not detected from at least one of the sample images.

예를 들어, 제2단말(150)의 제어부(102)는 도 4의 영상에서와 같이 제1단말(100)의 사용자의 상반신에 대응하는 샘플 영상에서 안면이 검출되었다고 판정할 수 있다. 그러나, 제2단말(150)의 제어부(102)는 도 5의 영상에서와 같이 제1단말(100)의 사용자의 하반신에 대응하는 샘플 영상에서는 안면이 검출되지 않았다고 판정할 수 있다.For example, the control unit 102 of the second terminal 150 may determine that the face is detected in the sample image corresponding to the upper half of the user of the first terminal 100 as in the image of FIG. However, the control unit 102 of the second terminal 150 may determine that the face is not detected in the sample image corresponding to the lower half of the user of the first terminal 100 as in the image of Fig.

다시 도 3을 참조하면, 다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행하는 단계(S130)가 수행될 수 있다. 만약 상기와 같이 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정된 경우, 제1단말(100)로부터 수신된 복수의 영상은 음란한 영상을 포함한다고 판정될 수 있다. 예를 들어, 제1단말(100)로부터 수신된 복수의 영상에 도 5와 같은 영상이 포함된 경우, 상기 복수의 영상은 음란한 영상을 포함한다고 판정될 수 있다.Referring again to FIG. 3, step S 130 of performing image processing on at least one or more images among the plurality of images included in the stream may be performed. If it is determined that the face is not detected in at least some sample images among the sample images as described above, it may be determined that the plurality of images received from the first terminal 100 include an obscene image. For example, when a plurality of images received from the first terminal 100 include an image as shown in FIG. 5, it can be determined that the plurality of images include an image that is sexually explicit.

제2단말(150)의 제어부(102)는 제2단말(150)의 사용자가 음란한 영상에 노출되는 것을 방지하기 위하여 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행할 수 있다. 제2단말(150)의 제어부(102)는 모든 상기 복수의 영상에 영상 처리를 수행하거나, 상기 복수의 영상 중에서 선택된 일부의 영상에 영상 처리를 수행할 수 있다.The control unit 102 of the second terminal 150 may perform image processing on at least one of the plurality of images to prevent the user of the second terminal 150 from being exposed to the lewd image. The control unit 102 of the second terminal 150 may perform image processing on all the plurality of images or may perform image processing on a part of the images selected from the plurality of images.

도 6은 실시예에 따른 영상 처리를 수행하는 단계(S130)가 수행되는 과정을 나타내는 순서도이다. 도 6을 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 대상 영상을 선택하는 단계(S131)가 수행될 수 있다.6 is a flowchart illustrating a process of performing image processing (S130) according to an embodiment. Referring to FIG. 6, at least one target image among the plurality of images included in the stream may be selected (S131).

제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 영상 처리를 수행할 적어도 하나 이상의 대상 영상을 선택할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 상기 스트림에 포함된 모든 상기 복수의 영상을 상기 대상 영상으로서 선택할 수 있다.The control unit 102 of the second terminal 150 may select at least one or more target images to be subjected to image processing among the plurality of images. For example, the control unit 102 of the second terminal 150 may select all the plurality of images included in the stream as the target image.

다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서, 안면이 검출되지 않았다고 판정된 상기 샘플 영상에 대응하는 적어도 하나 이상의 영상에 영상 처리를 수행할 수 있다. 상기 샘플 영상에 대응하는 영상은 상기 복수의 영상 중에서 상기 샘플 영상이 수신된 시각으로부터 특정한 시간 범위 내에 수신된 모든 영상일 수 있다.According to another embodiment, the control unit 102 of the second terminal 150 may perform image processing on at least one or more images corresponding to the sample images determined not to be detected from the plurality of images. The image corresponding to the sample image may be all images received within a specific time range from the time when the sample image is received from the plurality of images.

예를 들어, 상기 스트림을 통해 1초당 20개의 영상이 연속적으로 수신된다고 가정하기로 한다. 또한, 4초의 주기가 돌아올 때마다 가장 최근에 수신된 영상이 새로운 샘플 영상으로서 선택된다고 가정하기로 한다. 또한, 2개의 샘플 영상에서 안면이 검출되지 않았다고 판정되었다고 가정하기로 한다. 상기 2개의 샘플 영상이 수신된 시각은 각각 24초 시점 및 32초 시점일 수 있다. 상기 2개의 샘플 영상에 대응하는 영상은 22초 시점으로부터 26초 시점까지의 시간 범위 내에 수신된 약 80개의 영상 및 30초 시점으로부터 34초 시점까지의 시간 범위 내에 수신된 약 80개의 영상일 수 있다.For example, it is assumed that 20 images are received consecutively per second through the stream. It is also assumed that the most recently received image is selected as a new sample image every 4 seconds cycle. It is also assumed that the face is not detected in the two sample images. The time at which the two sample images are received may be 24 seconds and 32 seconds, respectively. The image corresponding to the two sample images may be about 80 images received within the time range from the 22 second time point to the 26 second time point and about 80 images received within the time range from the 30 second time point to the 34 second time point .

제2단말(150)의 제어부(102)가 상기 샘플 영상을 선택하는 방법 및 상기 대상 영상을 선택하는 방법은 실시예에 따라 달라질 수 있다. 도 7은 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다.The method for the controller 102 of the second terminal 150 to select the sample image and the method for selecting the target image may differ according to the embodiment. FIG. 7 is a flowchart illustrating a process of detecting a facial face (S110) to selecting a subject image (S131) according to an embodiment.

도 7을 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 최근의 특정한 시간에 대응하는 적어도 하나 이상의 샘플 영상을 선택하는 단계(S210)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 스트림 내에서 최근의 특정한 시간 동안 수신된 영상 중에서 적어도 하나 이상의 샘플 영상을 선택할 수 있다.Referring to FIG. 7, a step S210 of selecting at least one sample image corresponding to a specific recent time among the plurality of images included in the stream may be performed. The control unit 102 of the second terminal 150 may select at least one or more sample images among the images received during the recent specific time in the stream.

예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 영상 중에서 2개의 샘플 영상을 선택할 수 있다. 도 8은 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다. 도 8을 참조하면, 스트림 내에서 제1영상(301)이 샘플 영상으로서 과거에 이미 선택되어 있을 수 있다. 제2단말(150)의 제어부(102)는 현재로부터 특정한 시간 이전의 시점인 제1시점(t1) 이후에 수신된 영상 중에서 제2영상(302) 및 제3영상(303)을 샘플 영상으로서 추가적으로 선택할 수 있다.For example, the control unit 102 of the second terminal 150 may select two sample images from the received images in the last one second. 8 is a reference diagram for explaining a method of selecting a sample image according to an embodiment. Referring to FIG. 8, the first image 301 in the stream may be already selected as a sample image in the past. The control unit 102 of the second terminal 150 additionally adds the second image 302 and the third image 303 as the sample images among the images received after the first time t1 which is a time before the specific time from the present You can choose.

다시 도 7을 참조하면, 다음으로, 상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면의 검출을 시도하는 단계(S211)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 선택된 샘플 영상 각각에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)에서 안면의 검출을 시도할 수 있다.Referring again to FIG. 7, a step S211 of attempting to detect the face in the selected at least one sample image may be performed. The control unit 102 of the second terminal 150 can detect whether or not a portion corresponding to the face is present in each of the selected sample images. For example, the control unit 102 of the second terminal 150 may attempt to detect the face in the second image 302 and the third image 303.

다음으로, 상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S220)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 선택된 샘플 영상에서 안면에 대응하는 부분이 존재하지 않는다고 판정할 수 있다.Next, it can be determined that the face is not detected in the selected at least one sample image (S220). The control unit 102 of the second terminal 150 may determine that there is no portion corresponding to the face in the selected sample image.

제2단말(150)의 제어부(102)는 선택된 샘플 영상 모두에서 안면에 대응하는 부분이 존재하지 않는 경우, 상기 안면이 검출되지 않았다고 판정할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 선택된 샘플 영상 중에서 적어도 하나 이상의 샘플 영상에서 안면에 대응하는 부분이 존재하지 않는 경우, 상기 안면이 검출되지 않았다고 판정할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)에서 안면이 검출되지 않았다고 판정할 수 있다.The controller 102 of the second terminal 150 may determine that the face is not detected when there is no portion corresponding to the face in all of the selected sample images. According to another embodiment, the control unit 102 of the second terminal 150 may determine that the face is not detected when there is no portion corresponding to the face in at least one or more sample images among the selected sample images. For example, the control unit 102 of the second terminal 150 may determine that the face is not detected in the second image 302 and the third image 303.

다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 최근의 특정한 시간에 대응하는 모든 영상을 상기 대상 영상으로서 선택하는 단계(S231)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다. 만약 상기 스트림을 통해 1초당 20개의 영상이 연속적으로 수신되고 있는 경우, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 약 20개의 영상을 상기 대상 영상으로서 선택할 수 있다. 도 8을 참조하면, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)을 포함하여 현재로부터 특정한 시간 이전의 시점(t1) 이후에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.Next, a step S231 of selecting all images corresponding to the latest specific time among the plurality of images included in the stream as the target image may be performed. For example, the control unit 102 of the second terminal 150 may select all of the images received in the last one second as the target images. If 20 images are received continuously per second through the stream, the control unit 102 of the second terminal 150 can select about 20 images received in the last 1 second as the target images. Referring to FIG. 8, the control unit 102 of the second terminal 150 includes all of the images received after the time t1 before the specific time including the second image 302 and the third image 303 Can be selected as the target image.

도 9는 다른 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다. 도 9를 참조하면, 먼저, 특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 영상을 선택하는 단계(S310)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 특정한 주기마다 가장 최근에 선택된 샘플 영상보다 더 나중에 수신된 모든 영상 중에서 적어도 하나 이상의 새로운 샘플 영상을 선택할 수 있다.FIG. 9 is a flowchart illustrating a process of detecting a facial face (S110) to selecting a target image (S131) according to another embodiment. Referring to FIG. 9, a new sample image among the newly received images in the stream may be selected (S310) at a specific period. The control unit 102 of the second terminal 150 may select at least one new sample image among all the images received later than the most recently selected sample image for a specific period.

예를 들어, 제2단말(150)의 제어부(102)는 1초마다 2개의 새로운 샘플 영상을 선택할 수 있다. 도 8을 참조하면, 제2단말(150)의 제어부(102)는 제1영상(301)보다 더 나중에 수신된 모든 영상 중에서 제2영상(302) 및 제3영상(303)을 새로운 샘플 영상으로서 선택할 수 있다.For example, the control unit 102 of the second terminal 150 can select two new sample images every second. 8, the controller 102 of the second terminal 150 selects the second image 302 and the third image 303 from among all images received later than the first image 301 as a new sample image You can choose.

다시 도 9를 참조하면, 다음으로, 상기 새로운 샘플 영상이 선택될 때마다 상기 새로운 샘플 영상에서 상기 안면의 검출을 시도하는 단계(S311)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 특정한 주기마다 새로이 선택된 샘플 영상에서 안면의 검출을 시도할 수 있다.Referring again to FIG. 9, a step S311 of attempting to detect the face in the new sample image may be performed each time the new sample image is selected. The control unit 102 of the second terminal 150 may attempt to detect the face from the newly selected sample image at the specific period.

다음으로, 상기 샘플 영상 중에서 최근의 특정한 시간 이내에 선택된 모든 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S320)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 이내에 선택된 2개의 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 다시 말해서, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)에서 안면이 검출되지 않았다고 판정할 수 있다.Next, a step S320 may be performed in which it is determined that the face is not detected in all of the sample images selected within the latest specific time among the sample images. For example, the control unit 102 of the second terminal 150 can determine that the face is not detected in the two sample images selected within the last one second. In other words, the control unit 102 of the second terminal 150 can determine that the face is not detected in the second image 302 and the third image 303.

다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 최근의 특정한 시간에 대응하는 모든 영상을 상기 대상 영상으로서 선택하는 단계(S331)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다. 만약 상기 스트림을 통해 1초당 20개의 영상이 연속적으로 수신되고 있는 경우, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 약 20개의 영상을 상기 대상 영상으로서 선택할 수 있다. 도 8을 참조하면, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)을 포함하여 현재로부터 특정한 시간 이전의 시점(t1) 이후에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.Next, the step S331 of selecting all the images corresponding to the latest specific time among the plurality of images included in the stream as the target image may be performed. For example, the control unit 102 of the second terminal 150 may select all of the images received in the last one second as the target images. If 20 images are received continuously per second through the stream, the control unit 102 of the second terminal 150 can select about 20 images received in the last 1 second as the target images. Referring to FIG. 8, the control unit 102 of the second terminal 150 includes all of the images received after the time t1 before the specific time including the second image 302 and the third image 303 Can be selected as the target image.

도 10은 또 다른 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다. 도 10을 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 제1 샘플 영상에서 상기 안면의 검출을 시도하는 단계(S410)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 제1 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 상기 제1 샘플 영상에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.FIG. 10 is a flowchart illustrating a process of detecting a facial face according to another embodiment (S110) to selecting a target image (S131). Referring to FIG. 10, a step S410 of attempting to detect the face in a first sample image selected from the plurality of images included in the stream may be performed. The control unit 102 of the second terminal 150 can select the first sample image from among the plurality of images. The control unit 102 of the second terminal 150 may detect whether or not a portion corresponding to the face in the first sample image exists.

도 11은 또 다른 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다. 도 11을 참조하면, 스트림 내에서 제4영상(311)이 샘플 영상으로서 과거에 이미 선택되어 있을 수 있다. 제2단말(150)의 제어부(102)는 제4영상(311)보다 더 나중에 수신된 영상 중에서 제5영상(312)을 상기 제1 샘플 영상으로서 선택할 수 있다.11 is a reference diagram for explaining a method of selecting a sample image according to another embodiment. Referring to FIG. 11, the fourth image 311 in the stream may be already selected as a sample image in the past. The control unit 102 of the second terminal 150 may select the fifth image 312 among the images received later than the fourth image 311 as the first sample image.

다음으로, 상기 스트림 내에서 상기 제1 샘플 영상보다 더 나중에 수신된 모든 영상 중에서 선택된 적어도 하나 이상의 제2 샘플 영상 각각에서 상기 안면의 검출을 시도하는 단계(S411)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 제1 샘플 영상보다 더 나중에 수신된 영상 중에서 적어도 하나 이상의 제2 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 각각의 제2 샘플 영상에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.Next, a step S411 of attempting to detect the face in each of at least one second sample image selected from all the images received later than the first sample image in the stream may be performed. The controller 102 of the second terminal 150 may select at least one second sample image from the images received later than the first sample image. The control unit 102 of the second terminal 150 can detect whether or not a portion corresponding to the face is present in each second sample image.

예를 들어, 도 11을 참조하면, 제2단말(150)의 제어부(102)는 제5영상(312)보다 더 나중에 수신된 영상 중에서 제6영상(313)을 상기 제2 샘플 영상으로서 선택할 수 있다. 제2단말(150)의 제어부(102)는 제6영상(313)에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.For example, referring to FIG. 11, the controller 102 of the second terminal 150 may select the sixth image 313 from the images received later than the fifth image 312 as the second sample image have. The control unit 102 of the second terminal 150 can detect whether or not a portion corresponding to the face in the sixth image 313 exists.

다른 예로서, 제2단말(150)의 제어부(102)는 2개의 영상을 상기 제2 샘플 영상으로서 선택할 수 있다. 상기 2개의 영상은 제6영상(313), 및 제5영상(312)보다 더 나중에 수신되고 제6영상(313)보다 더 먼저 수신된 다른 영상을 포함할 수 있다. 제2단말(150)의 제어부(102)는 상기 2개의 영상 각각에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.As another example, the control unit 102 of the second terminal 150 can select two images as the second sample image. The two images may include a sixth image 313 and other images received later than the fifth image 312 and received earlier than the sixth image 313. [ The control unit 102 of the second terminal 150 can detect whether or not a portion corresponding to the face is present in each of the two images.

다시 도 10을 참조하면, 다음으로, 상기 제1 샘플 영상 및 모든 상기 적어도 하나 이상의 제2 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S420)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 제1 샘플 영상 및 제2 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제5영상(312) 및 제6영상(313)에서 안면이 검출되지 않았다고 판정할 수 있다.Referring again to FIG. 10, a step S420 may be performed in which it is determined that the face is not detected in the first sample image and all the at least one second sample image. The control unit 102 of the second terminal 150 may determine that the face is not detected in the first sample image and the second sample image. For example, the control unit 102 of the second terminal 150 may determine that the face is not detected in the fifth image 312 and the sixth image 313.

다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 제1 샘플 영상 및 제2 샘플 영상에 대응하는 영상을 상기 대상 영상으로서 선택하는 단계(S431)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 제1 샘플 영상 및 제2 샘플 영상에 대응하는 영상을 상기 대상 영상으로서 선택할 수 있다.Next, a step S431 of selecting, as the target image, an image corresponding to the first sample image and the second sample image among the plurality of images included in the stream may be performed. The control unit 102 of the second terminal 150 may select an image corresponding to the first sample image and the second sample image as the target image.

예를 들어, 상기 제1 샘플 영상 및 제2 샘플 영상에 대응하는 영상은 상기 복수의 영상 중에서 상기 제1 샘플 영상 및 상기 제1 샘플 영상보다 더 나중에 수신된 모든 영상을 포함할 수 있다. 도 11을 참조하면, 제2단말(150)의 제어부(102)는 제5영상(312), 및 제5영상(312)보다 더 나중에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.For example, an image corresponding to the first sample image and the second sample image may include all the images received later than the first sample image and the first sample image among the plurality of images. Referring to FIG. 11, the controller 102 of the second terminal 150 may select all images received later than the fifth image 312 and the fifth image 312 as the target image.

다른 실시예에 따르면, 선택된 대상 영상은 상기 제1 샘플 영상, 상기 적어도 하나 이상의 제2 샘플 영상, 및 주변 영상을 포함할 수 있다. 상기 주변 영상은 상기 제1 샘플 영상보다 더 나중에 수신되고 상기 적어도 하나 이상의 제2 샘플 영상 중에서 가장 나중에 수신된 영상보다 더 먼저 수신된 모든 영상일 수 있다. 도 11을 참조하면, 제2단말(150)의 제어부(102)는 제5영상(312), 제6영상(313), 및 제5영상(312)보다 더 나중에 수신되고 제6영상(313)보다 더 먼저 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.According to another embodiment, the selected object image may include the first sample image, the at least one second sample image, and the surrounding image. The peripheral image may be received later than the first sample image and may be all images received earlier than the last received image among the at least one second sample image. 11, the control unit 102 of the second terminal 150 receives the fifth image 312, the sixth image 313, and the fifth image 312, All of the received images can be selected as the target images.

도 12는 또 다른 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다. 도 12를 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 제1시각에 대응하는 제1 샘플 영상 및 상기 제1시각으로부터 특정한 시간 이상의 시간차를 갖는 제2시각에 대응하는 제2 샘플 영상을 포함하는 적어도 둘 이상의 샘플 영상을 선택하는 단계(S510)가 수행될 수 있다.FIG. 12 is a flowchart illustrating a process of performing detection of a facial face (S110) to selecting a target image (S131) according to still another embodiment. 12, first, a first sample image corresponding to a first time among the plurality of images included in the stream and a second sample image corresponding to a second time having a time difference of a predetermined time or longer from the first time (S510) may be performed to select at least two or more sample images.

제2단말(150)의 제어부(102)는 스트림에 포함된 복수의 영상 중에서 제1 샘플 영상을 선택할 수 있다. 상기 제1 샘플 영상이 수신된 시각은 제1시각일 수 있다. 제2단말(150)의 제어부(102)는 제1 샘플 영상이 수신된 시각으로부터 특정한 시간 이상이 지난 후에 수신된 영상을 제2 샘플 영상으로서 선택할 수 있다. 다시 말해서, 제1 샘플 영상이 수신된 시각 및 제2 샘플 영상이 수신된 시각의 시간차는 상기 특정한 시간 이상일 수 있다. 상기 특정한 시간은 예를 들어, 1초일 수 있다.The control unit 102 of the second terminal 150 can select the first sample image from among the plurality of images included in the stream. The time at which the first sample image is received may be the first time. The control unit 102 of the second terminal 150 may select the received image after a predetermined time or more from the time when the first sample image was received as the second sample image. In other words, the time difference between the time when the first sample image is received and the time when the second sample image is received may be longer than the predetermined time. The specific time may be, for example, 1 second.

또한, 제2단말(150)의 제어부(102)는 제1 샘플 영상보다 더 먼저 수신된 영상 중에서 샘플 영상을 추가적으로 선택할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제1 샘플 영상보다 더 나중에 수신되고 제2 샘플 영상보다 더 먼저 수신된 영상 중에서 샘플 영상을 추가적으로 선택할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제2 샘플 영상보다 더 나중에 수신된 영상 중에서 샘플 영상을 추가적으로 선택할 수 있다.In addition, the control unit 102 of the second terminal 150 can additionally select a sample image among the images received earlier than the first sample image. In addition, the control unit 102 of the second terminal 150 can additionally select a sample image from an image received later than the first sample image and received earlier than the second sample image. In addition, the control unit 102 of the second terminal 150 can additionally select a sample image among the images received later than the second sample image.

예를 들어, 도 11을 참조하면, 제2단말(150)의 제어부(102)는 스트림 내에서 임의의 제2시점(t2)에 수신된 영상을 제1 샘플 영상으로서 선택할 수 있다. 제2단말(150)의 제어부(102)는 제2시점(t2)보다 1초 이상이 지난 후에 수신된 영상 중에서 제3시점(t3)에 수신된 영상을 제2 샘플 영상으로서 선택할 수 있다.For example, referring to FIG. 11, the control unit 102 of the second terminal 150 may select an image received at an arbitrary second time point t2 in the stream as a first sample image. The control unit 102 of the second terminal 150 may select the image received at the third time point t3 among the images received after one second or more of the second time point t2 as the second sample image.

제2단말(150)의 제어부(102)는 제2시점(t2)보다 더 먼저 수신된 영상 중에서 제4영상(311)을 샘플 영상으로서 추가적으로 선택할 수 있다. 제2단말(150)의 제어부(102)는 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 영상 중에서 제5영상(312) 및 제6영상(313)을 샘플 영상으로서 추가적으로 선택할 수 있다. 제2단말(150)의 제어부(102)는 제3시점(t3)보다 더 나중에 수신된 영상 중에서 제7영상(314)을 샘플 영상으로서 추가적으로 선택할 수 있다.The control unit 102 of the second terminal 150 can additionally select the fourth image 311 as a sample image from the images received earlier than the second time point t2. The control unit 102 of the second terminal 150 transmits the fifth image 312 and the sixth image 313 received later than the second time point t2 and received before the third time point t3 Additional sample images can be selected. The controller 102 of the second terminal 150 can additionally select the seventh image 314 from the images received later than the third time point t3 as a sample image.

다시 도 12를 참조하면, 다음으로, 상기 선택된 적어도 둘 이상의 샘플 영상 각각에서 상기 안면의 검출을 시도하는 단계(S511)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 제1 샘플 영상, 제2 샘플 영상, 및 추가적으로 선택된 모든 샘플 영상에서 안면의 검출을 시도할 수 있다.Referring again to FIG. 12, next step S511 of attempting to detect the face in each of the at least two selected sample images may be performed. The control unit 102 of the second terminal 150 may attempt to detect the face in the first sample image, the second sample image, and all the selected sample images.

다음으로, 상기 선택된 적어도 둘 이상의 샘플 영상 중에서 상기 제1 샘플 영상, 상기 제2 샘플 영상, 및 상기 제1시각으로부터 상기 제2시각까지의 시간에 대응하는 모든 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S520)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 제2시점(t2)에 수신된 제1 샘플 영상에서 안면에 대응하는 부분이 검출되지 않았다고 판정할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제3시점(t3)에 수신된 제2 샘플 영상에서 안면에 대응하는 부분이 검출되지 않았다고 판정할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 영상 중에서 샘플 영상으로서 선택된 제5영상(312) 및 제6영상(313)에서 안면이 검출되지 않았다고 판정할 수 있다. 다시 말해서, 제2단말(150)의 제어부(102)는 선택된 모든 샘플 영상 중에서, 제2시점(t2)으로부터 제3시점(t3)까지의 시간 동안에 수신된 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다.Next, it is determined that the face is not detected in all of the sample images corresponding to the time from the first sample image, the second sample image, and the first time to the second time among the selected at least two sample images (S520) may be performed. The control unit 102 of the second terminal 150 may determine that the portion corresponding to the face in the first sample image received at the second time point t2 is not detected. In addition, the control unit 102 of the second terminal 150 can determine that the portion corresponding to the face in the second sample image received at the third time point t3 is not detected. The control unit 102 of the second terminal 150 may further include a fifth image 312 selected as a sample image among the images received later than the second time point t2 and received earlier than the third time point t3, 6 image 313 can not be detected. In other words, the control unit 102 of the second terminal 150 determines that the face is not detected in the sample image received during the period from the second time point t2 to the third time point t3 among all the selected sample images .

다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 제1시각으로부터 상기 제2시각까지의 시간에 대응하는 모든 영상을 상기 대상 영상으로서 선택하는 단계(S531)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제2시점(t2)으로부터 제3시점(t3)까지의 시간 동안에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다. 상기 선택된 대상 영상은 상기 제1 샘플 영상, 상기 제2 샘플 영상, 및 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 샘플 영상을 포함할 수 있다. 또한, 상기 선택된 대상 영상은 상기 스트림 내에서 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 모든 영상 중에서 샘플 영상으로 선택되지 않은 모든 나머지 영상을 포함할 수 있다.Next, the step S531 of selecting all the images corresponding to the time from the first time to the second time among the plurality of images included in the stream may be performed as the subject image. For example, the control unit 102 of the second terminal 150 may select all the images received during the time from the second time point t2 to the third time point t3 as the target images. The selected target image may include the first sample image, the second sample image, and a sample image received later than the second point of time t2 and received earlier than the third point of time t3. Also, the selected target image may include all remaining images that are received later than the second time point t2 in the stream and not selected as sample images among all the images received earlier than the third time point t3 .

다시 도 6을 참조하면, 상기 대상 영상을 선택하는 단계(S131)가 수행된 후에, 각각의 상기 대상 영상 내에서 적어도 일부의 대상 영역을 선택하는 단계(S132)가 수행될 수 있다. 도 13은 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다. 도 13에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 각각의 상기 대상 영상의 전체 영역을 상기 대상 영역으로서 선택할 수 있다.Referring again to FIG. 6, after the step S131 of selecting the target image is performed, a step S132 of selecting at least a part of the target regions in each of the target images may be performed. 13 is a reference view showing a selected object area according to an embodiment. As shown in FIG. 13, the control unit 102 of the second terminal 150 can select the entire area of each of the target images as the target area.

다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 각각의 상기 대상 영상 내에서 피부색에 대응하는 영역을 상기 대상 영역으로서 선택할 수 있다. 제2단말(150)의 제어부(102)는 각각의 대상 영상에서 피부색에 대응하는 영역을 검출할 수 있다. 상기 피부색은 적어도 하나 이상의 색상을 가리킬 수 있다. 각각의 사람이 갖는 피부색은 서로 다를 수 있으므로, 제2단말(150)의 제어부(102)는 여러 가지의 피부색에 대하여 상기 피부색에 대응하는 영역을 검출할 수 있다.According to another embodiment, the control unit 102 of the second terminal 150 can select an area corresponding to the skin color in each of the target images as the target area. The control unit 102 of the second terminal 150 can detect an area corresponding to the skin color in each of the target images. The skin color may indicate at least one color. Since the skin color of each person may be different from each other, the control unit 102 of the second terminal 150 can detect an area corresponding to the skin color for various skin colors.

도 14는 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다. 도 14에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 대상 영상 내에서 피부색을 갖는 영역을 상기 대상 영역으로서 선택할 수 있다. 다시 말해서, 상기 선택된 대상 영역에 포함된 각각의 픽셀(pixel)은 피부색을 가질 수 있다.14 is a reference view showing a selected object area according to another embodiment. As shown in Fig. 14, the control unit 102 of the second terminal 150 can select an area having a skin color in the target image as the target area. In other words, each pixel included in the selected object region may have a skin color.

제2단말(150)의 제어부(102)는 각각의 대상 영상 내에서 적어도 하나 이상의 폐곡선을 상기 대상 영역으로서 선택할 수 있다. 예를 들어, 도 14에 도시된 바와 달리, 피부색을 갖는 영역이 서로 인접하거나 이격된 복수의 폐곡선을 포함할 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 전부를 상기 대상 영역으로서 선택할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 중에서 가장 넓은 면적을 갖는 하나 이상의 폐곡선을 상기 대상 영역으로서 선택할 수 있다.The control unit 102 of the second terminal 150 may select at least one closed curve in each target image as the target area. For example, unlike the one shown in Fig. 14, regions having a skin color may include a plurality of closed lines that are adjacent to or spaced from each other. The control unit 102 of the second terminal 150 may select all of the plurality of closed lines as the target area. According to another embodiment, the control unit 102 of the second terminal 150 may select one or more closed curves having the largest area among the plurality of closed curves as the target area.

도 15는 또 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다. 도 15에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 대상 영상 내에서 피부색을 갖는 영역을 포함하는 사각형의 영역을 상기 대상 영상으로서 선택할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 사각형의 영역 대신에, 상기 피부색을 갖는 영역을 포함하는 원형, 타원형, 또는 다각형의 영역을 상기 대상 영상으로서 선택할 수 있다.15 is a reference view showing a selected object area according to another embodiment. As shown in FIG. 15, the control unit 102 of the second terminal 150 can select a rectangular area including a skin color area in the target image as the target image. According to another embodiment, the control unit 102 of the second terminal 150 may select a circular, elliptical, or polygonal region including the skin color region as the target image, instead of the rectangular region.

제2단말(150)의 제어부(102)는 각각의 대상 영상 내에서 적어도 하나 이상의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다. 예를 들어, 도 15에 도시된 바와 달리, 피부색을 갖는 영역이 서로 인접하거나 이격된 복수의 폐곡선을 포함할 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 전부를 포함하는 하나의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 복수의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다. 각각의 다각형의 영역은 상기 복수의 폐곡선 중에서 적어도 하나 이상의 폐곡선을 포함할 수 있다. 또 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 중에서 가장 넓은 면적을 갖는 하나 이상의 폐곡선을 포함하는 하나 이상의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다.The control unit 102 of the second terminal 150 may select at least one polygonal area within each object image as the object area. For example, unlike the one shown in Fig. 15, regions having a skin color may include a plurality of closed lines that are adjacent to or spaced from each other. The control unit 102 of the second terminal 150 may select one polygonal area including all of the plurality of closed lines as the target area. According to another embodiment, the control unit 102 of the second terminal 150 can select a plurality of polygonal areas as the target area. The area of each polygon may include at least one closed curve among the plurality of closed curves. According to another embodiment, the control unit 102 of the second terminal 150 may select one or more polygonal regions that include one or more closed curves having the largest area among the plurality of closed curves as the target region.

다시 도 6을 참조하면, 다음으로, 각각의 상기 대상 영상의 상기 선택된 대상 영역에 상기 영상 처리를 수행하는 단계(S133)가 수행될 수 있다. 도 16은 실시예에 따른 영상 처리가 수행된 영상이다. 도 16에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 도 15에서와 같이 선택된 대상 영역을 상기 대상 영상으로부터 삭제할 수 있다.Referring again to FIG. 6, the step S133 of performing the image processing on the selected target area of each of the target images may be performed. 16 is an image in which the image processing according to the embodiment is performed. As shown in FIG. 16, the control unit 102 of the second terminal 150 may delete the selected target region from the target image, as shown in FIG.

도 17은 다른 실시예에 따른 영상 처리가 수행된 영상이다. 다른 예로서, 도 17에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 상기 대상 영역에 블러(blur) 효과를 적용할 수 있다. 도 18은 또 다른 실시예에 따른 영상 처리가 수행된 영상이다. 또 다른 예로서, 도 18에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 상기 대상 영역에 모자이크(mosaic) 효과를 적용할 수 있다. 도 19는 또 다른 실시예에 따른 영상 처리가 수행된 영상이다. 또 다른 예로서, 도 19에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 상기 대상 영역을 다른 영상으로 치환할 수 있다.17 is an image in which image processing according to another embodiment is performed. As another example, as shown in FIG. 17, the control unit 102 of the second terminal 150 may apply a blur effect to the target area. 18 is an image in which image processing according to another embodiment is performed. As another example, as shown in FIG. 18, the control unit 102 of the second terminal 150 may apply a mosaic effect to the target area. FIG. 19 is an image in which image processing according to another embodiment is performed. As another example, as shown in FIG. 19, the control unit 102 of the second terminal 150 may replace the target area with another image.

또 다른 예로서, 제2단말(150)의 제어부(102)는 상기 대상 영역의 색상, 명도, 대비(contrast) 또는 채도를 조절할 수 있다. 또한, 제2단말(150)의 제어부(102)는 위에 나열된 영상 처리의 조합을 수행할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 상기 대상 영역에 블러 효과를 적용하고, 채도를 낮추고, 대비를 낮출 수 있다.As another example, the control unit 102 of the second terminal 150 may adjust the hue, brightness, contrast, or saturation of the target area. In addition, the control unit 102 of the second terminal 150 can perform the combination of the image processing listed above. For example, the control unit 102 of the second terminal 150 may apply a blur effect to the target region, reduce saturation, and reduce contrast.

다시 도 3을 참조하면, 다음으로, 상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계(S140)가 수행될 수 있다. 제2단말(150)의 출력부(105)는 상기 복수의 영상을 표시할 수 있다. 예를 들어, 제2단말(150)의 출력부(105)에 포함된 디스플레이는 1초당 20개의 영상을 연속적으로 표시할 수 있다. 상기 복수의 영상은 제2단말(150)의 제어부(102)에 의해 영상 처리가 수행된 적어도 하나 이상의 영상을 포함할 수 있다.Referring again to FIG. 3, a step of displaying the plurality of images included in the stream (S140) may be performed. The output unit 105 of the second terminal 150 can display the plurality of images. For example, the display included in the output unit 105 of the second terminal 150 can continuously display 20 images per second. The plurality of images may include at least one image processed by the control unit 102 of the second terminal 150.

이로써, 제1단말(100)의 사용자와 영상 통화를 하는 제2단말(150)의 사용자가 상대방으로부터의 음란한 영상에 노출되는 것이 방지될 수 있다. 또한, 제2단말(150)의 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함이 방지될 수 있다. 또한, 제1단말(100)의 사용자 및 제2단말(150)의 사용자 간의 건전한 영상 통화가 유도될 수 있다.Thus, the user of the second terminal 150, which is in video communication with the user of the first terminal 100, can be prevented from being exposed to obscene images from the other terminal. In addition, a sexual shame or discomfort that the user of the second terminal 150 can feel by the image from the other can be prevented. In addition, a sound video call between the user of the first terminal 100 and the user of the second terminal 150 can be induced.

다음으로, 상기 영상 처리의 해제에 대한 요청을 수신하는 단계(S150)가 수행될 수 있다. 예를 들어, 제2단말(150)의 사용자는 부적절한 영상에 노출될 수 있음을 감수하고, 수신된 영상의 원본을 보기를 원할 수 있다. 제2단말(150)의 출력부(105)에 포함된 디스플레이는 상기 영상 처리를 해제할지 여부를 묻는 메시지를 출력할 수 있다. 예를 들어, 제2단말(150)의 출력부(105)는 "안면이 검출되지 않았습니다. 원본을 보기 원하시면 버튼을 눌러주세요."와 같은 메시지를 출력할 수 있다. 제2단말(150)의 사용자는 상기 메시지에 대한 응답으로 제2단말(150)의 입력부(101)에 포함된 버튼을 누를 수 있다. 다시 말해서, 제2단말(150)의 입력부(101)는 제2단말(150)의 사용자로부터 상기 영상 처리의 해제에 대한 요청을 수신할 수 있다.Next, a step of receiving a request for releasing the image processing (S150) may be performed. For example, the user of the second terminal 150 may wish to view the original of the received image, assuming that it may be exposed to an inappropriate image. The display included in the output unit 105 of the second terminal 150 may output a message asking whether to cancel the image processing. For example, the output unit 105 of the second terminal 150 may output a message such as "No face detected, please press the button if you want to view the original." The user of the second terminal 150 may press a button included in the input unit 101 of the second terminal 150 in response to the message. In other words, the input unit 101 of the second terminal 150 may receive a request for the cancellation of the image processing from the user of the second terminal 150.

다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 요청이 수신된 후에 수신된 영상을 상기 영상 처리 없이 표시하는 단계(S160)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 요청이 수신된 후에 수신된 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 제2단말(150)의 제어부(102)는 위와 같은 판정에도 불구하고, 상기 요청이 수신된 후에 수신된 영상에 영상 처리를 수행하지 않을 수 있다. 제2단말(150)의 출력부(105)는 상기 요청이 수신된 후에 수신된 적어도 하나 이상의 영상을 상기 영상 처리 없이 표시할 수 있다.Next, a step of displaying the received image after the request is received among the plurality of images included in the stream, without performing the image processing, may be performed (S160). The control unit 102 of the second terminal 150 may determine that the face is not detected in the received image after the request is received. The control unit 102 of the second terminal 150 may not perform image processing on the received image after the request is received, despite the above determination. The output unit 105 of the second terminal 150 may display at least one image received after the request is received without the image processing.

도 20은 다른 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다. 도 20을 참조하면, 먼저, 제1단말(100)과의 영상 통화 세션을 수립하는 단계(S600)가 수행될 수 있다. 제2단말(150)의 통신부(104)는 제1단말(100)과의 영상 통화 세션을 수립할 수 있다.20 is a flowchart illustrating a process of performing an image display method according to another embodiment. Referring to FIG. 20, a step S600 of establishing a video call session with the first terminal 100 may be performed. The communication unit 104 of the second terminal 150 can establish a video call session with the first terminal 100. [

다음으로, 상기 영상 통화 세션을 통해 상기 제1단말(100)에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 단계(S610)가 수행될 수 있다. 제2단말(150)의 통신부(104)는 상기 영상 통화 세션을 통해 제1단말(100)로부터 스트림을 수신할 수 있다. 상기 스트림은 복수의 영상을 포함할 수 있다.Next, a step S610 of receiving a stream including a plurality of images photographed by the first terminal 100 through the video call session may be performed. The communication unit 104 of the second terminal 150 may receive the stream from the first terminal 100 through the video call session. The stream may include a plurality of images.

다음으로, 상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계(S620)가 수행될 수 있다. 제2단말(150)의 출력부(105)는 수신된 상기 복수의 영상을 표시할 수 있다.Next, the step of displaying the plurality of images included in the stream (S620) may be performed. The output unit 105 of the second terminal 150 may display the received plurality of images.

다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면의 검출을 시도하는 단계(S630)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 적어도 하나 이상의 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 선택된 샘플 영상 각각에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.Next, a step S630 of attempting to detect a face in each of at least one or more sample images selected from the plurality of images included in the stream may be performed. The control unit 102 of the second terminal 150 may select at least one or more sample images among the plurality of images. The control unit 102 of the second terminal 150 can detect whether or not a portion corresponding to the face is present in each of the selected sample images.

다음으로, 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S640)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 적어도 하나 이상의 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 샘플 영상에서 안면이 검출되지 않은 경우, 상기 복수의 영상에는 부적절한 영상이 포함되어 있을 수 있다.Next, a step S640 may be performed in which it is determined that the face is not detected in at least some sample images among the sample images. The control unit 102 of the second terminal 150 may determine that the face is not detected in at least one or more sample images. If the face is not detected in the sample image, the plurality of images may include an inappropriate image.

다음으로, 상기 영상 통화 세션을 종료하는 단계(S650)가 수행될 수 있다. 제2단말(150)의 통신부(104)는 제1단말(100)과의 영상 통화 세션을 종료할 수 있다. 이로써, 제1단말(100)의 사용자와 영상 통화를 하는 제2단말(150)의 사용자가 상대방으로부터의 부적절한 영상에 노출되는 것이 방지될 수 있다.Next, ending the video call session (S650) may be performed. The communication unit 104 of the second terminal 150 may terminate the video call session with the first terminal 100. [ Thus, the user of the second terminal 150, which is in video communication with the user of the first terminal 100, can be prevented from being exposed to inappropriate images from the other terminal.

이상에서 설명된 실시예에 따르면, 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 음란한 영상에 노출되는 것이 방지될 수 있다. 또한, 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함이 방지될 수 있다. 또한, 사용자 간의 건전한 영상 통화가 유도될 수 있다.According to the embodiment described above, it is possible to prevent a user who makes a video call with a partner from being exposed to an obscene image from the other party. In addition, a sexual shame or uncomfortable feeling that a user who makes a video call with the other party can feel by the image from the other party can be prevented. In addition, a sound video call between users can be induced.

이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다.The embodiments described above may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer, and can include both volatile and nonvolatile media, removable and non-removable media.

또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 또는 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.The computer-readable medium may also include computer storage media or communication media. Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and may include any information delivery media.

이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 제1 영상 표시 장치, 제1 단말
101: 입력부
102: 제어부
103: 저장부
104: 통신부
105: 출력부
150: 제2 영상 표시 장치, 제2단말
200: 서버
301: 제1영상
302: 제2영상
303: 제3영상
311: 제4영상
312: 제5영상
313: 제6영상
314: 제7영상
100: a first video display device, a first terminal
101: Input unit
102:
103:
104:
105: Output section
150: second video display device, second terminal
200: Server
301: First video
302: Second image
303: Third video
311: fourth image
312: fifth image
313: the sixth image
314: Seventh image

Claims (12)

제1 단말로부터 상기 제1 단말에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 단계;
상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 단계;
상기 샘플 영상 각각에서 피부색을 검출하는 단계;
상기 안면과 상기 피부색 검출 결과에 대응하여 상기 피부색이 검출된 영역에 영상 처리를 수행하는 단계; 및
상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계;
를 포함하는 영상 표시 방법.
The method comprising: receiving a stream including a plurality of images taken by the first terminal from a first terminal;
Detecting a face in each of at least one or more sample images selected from the plurality of images included in the stream;
Detecting skin color in each of the sample images;
Performing image processing on an area where the skin color is detected corresponding to the face and the skin color detection result; And
Displaying the plurality of images included in the stream;
And displaying the image.
제1항에 있어서,
상기 안면을 검출하는 단계에서 안면이 검출되지 않고, 상기 피부색을 검출하는 단계에서 피부색이 검출되면,
상기 영상 처리를 수행하는 단계에서는 상기 피부색이 검출된 영역에 상기 영상 처리를 수행하는 영상 표시 방법.
The method according to claim 1,
If the face is not detected in the step of detecting the face and the skin color is detected in the step of detecting the skin color,
Wherein the image processing is performed in a region where the skin color is detected.
제1항에 있어서,
상기 영상 처리를 수행하는 단계는,
상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 대상 영상을 선택하는 단계;
각각의 상기 대상 영상 내에서 적어도 일부의 대상 영역을 선택하는 단계; 및
각각의 상기 대상 영상의 상기 선택된 대상 영역에 상기 영상 처리를 수행하는 단계;
를 포함하고,
상기 대상 영역은 상기 피부색이 검출된 영역에 대응하는 영상 표시 방법.
The method according to claim 1,
The step of performing the image processing includes:
Selecting at least one target image from the plurality of images included in the stream;
Selecting at least some object regions within each of the object images; And
Performing the image processing on the selected target area of each of the target images;
Lt; / RTI >
Wherein the object area corresponds to the area where the skin color is detected.
제1항에 있어서,
상기 안면을 검출하는 단계는,
상기 스트림에 포함된 상기 복수의 영상 중에서 최근의 특정한 시간에 대응하는 적어도 하나 이상의 샘플 스트림을 선택하는 단계; 및
상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면을 검출하는 단계;
를 포함하는 영상 표시 방법.
The method according to claim 1,
The step of detecting the face includes:
Selecting at least one sample stream corresponding to a specific recent time among the plurality of images included in the stream; And
Detecting the face in the selected at least one sample image;
And displaying the image.
제4항에 있어서,
상기 안면을 검출하는 단계는,
특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 스트림을 선택하는 단계; 및
상기 새로운 샘플 스트림이 선택될 때마다 상기 새로운 샘플 스트림에서 안면을 검출하는 단계;
를 포함하는 영상 표시 방법.
5. The method of claim 4,
The step of detecting the face includes:
Selecting a new sample stream from the newly received images in the stream for each particular period; And
Detecting a face in the new sample stream each time the new sample stream is selected;
And displaying the image.
제1항에 있어서,
상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응하는 영상 표시 방법.
The method according to claim 1,
Wherein the image processing corresponds to an operation of applying a blurring effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.
제1 단말이 상기 제1 단말과 영상 통화 세션이 수립된 제2 단말로부터 연속되는 복수의 영상을 포함하는 영상 스트림을 수신하는 단계;
상기 제1 단말이 상기 복수의 영상 각각에 안면이 존재하는지 여부를 판단하는 단계;
안면이 존재하지 않는 영상에서 피부색을 검출하는 단계;
상기 피부색 검출 결과에 대응하여 상기 안면이 존재하지 않는 영상에 영상 처리를 수행하는 단계; 및
상기 제1 단말이 출력부를 통해 상기 영상 처리가 수행된 영상 스트림을 표시하는 단계;
를 포함하는 영상 표시 방법.
Receiving a video stream including a plurality of consecutive video images from a second terminal in which a first terminal has established a video call session with the first terminal;
Determining whether a facial image exists in each of the plurality of images by the first terminal;
Detecting a skin color in an image in which the face does not exist;
Performing image processing on an image in which the face does not exist corresponding to the skin color detection result; And
Displaying the video stream on which the image processing is performed through the output unit of the first terminal;
And displaying the image.
제7항에 있어서,
상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응하는 영상 표시 방법.
8. The method of claim 7,
Wherein the image processing corresponds to an operation of applying a blurring effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.
제1항 내지 제8항 중 어느 한 항에 따른 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체.9. A computer-readable recording medium on which a program for performing the method according to any one of claims 1 to 8 is recorded. 제1 단말로부터 상기 제1 단말에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 통신부;
상기 스트림에 포함된 상기 복수의 영상을 표시하는 출력부; 및
상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 제어부;
를 포함하고,
상기 제어부는 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않는 경우, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행하고,
상기 출력부는 상기 영상 처리가 수행된 상기 적어도 하나 이상의 영상을 표시하는 영상 표시 장치.
A communication unit for receiving a stream including a plurality of images taken by the first terminal from a first terminal;
An output unit displaying the plurality of images included in the stream; And
A controller for detecting a face in each of at least one or more sample images selected from the plurality of images included in the stream;
Lt; / RTI >
Wherein the control unit performs image processing on at least one or more images among the plurality of images included in the stream when the face is not detected in at least some sample images among the sample images,
Wherein the output unit displays the at least one image subjected to the image processing.
제10항에 있어서,
상기 제어부는 상기 안면이 검출되지 않은 샘플 영상에서 피부색이 검출되는 경우 상기 피부색이 검출된 영역에 상기 영상 처리를 수행하는 영상 표시 장치.
11. The method of claim 10,
Wherein the control unit performs the image processing on a region where the skin color is detected when a skin color is detected from a sample image in which the face is not detected.
제10항에 있어서,
상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응하는 영상 표시 장치.
11. The method of claim 10,
Wherein the image processing corresponds to an operation of applying a blur effect or a mosaic effect or adjusting a hue, brightness, contrast or saturation.
KR1020180134869A 2018-11-06 2018-11-06 Image displaying method, apparatus and computer readable recording medium KR101967651B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180134869A KR101967651B1 (en) 2018-11-06 2018-11-06 Image displaying method, apparatus and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180134869A KR101967651B1 (en) 2018-11-06 2018-11-06 Image displaying method, apparatus and computer readable recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160130656A Division KR20180039402A (en) 2016-10-10 2016-10-10 Device and method of displaying images

Publications (2)

Publication Number Publication Date
KR20180123998A true KR20180123998A (en) 2018-11-20
KR101967651B1 KR101967651B1 (en) 2019-04-29

Family

ID=64568607

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180134869A KR101967651B1 (en) 2018-11-06 2018-11-06 Image displaying method, apparatus and computer readable recording medium

Country Status (1)

Country Link
KR (1) KR101967651B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100844334B1 (en) * 2007-06-07 2008-07-08 엘지전자 주식회사 Apparatus and method for controlling display in mobile communication terminal
KR20080110064A (en) * 2007-06-14 2008-12-18 유성준 Method for distinguishing obscene image and apparatus therefor
US20090049467A1 (en) * 2002-07-02 2009-02-19 Caption Tv, Inc. System, method and computer program product for selective filtering of objectionable content from a program
KR20120090870A (en) * 2012-05-09 2012-08-17 김명훈 Image security apparatus and image security system using face detect algorithm and image security method thereof
KR20120126677A (en) * 2011-05-12 2012-11-21 재단법인 서울호서직업전문학교 Method and apparatus for automatically detecting pornographic image, and computer readable medium thereof
KR20140012474A (en) * 2012-07-20 2014-02-03 한국전자통신연구원 Apparatus and method for protecting privacy based on face recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090049467A1 (en) * 2002-07-02 2009-02-19 Caption Tv, Inc. System, method and computer program product for selective filtering of objectionable content from a program
KR100844334B1 (en) * 2007-06-07 2008-07-08 엘지전자 주식회사 Apparatus and method for controlling display in mobile communication terminal
KR20080110064A (en) * 2007-06-14 2008-12-18 유성준 Method for distinguishing obscene image and apparatus therefor
KR20120126677A (en) * 2011-05-12 2012-11-21 재단법인 서울호서직업전문학교 Method and apparatus for automatically detecting pornographic image, and computer readable medium thereof
KR20120090870A (en) * 2012-05-09 2012-08-17 김명훈 Image security apparatus and image security system using face detect algorithm and image security method thereof
KR20140012474A (en) * 2012-07-20 2014-02-03 한국전자통신연구원 Apparatus and method for protecting privacy based on face recognition

Also Published As

Publication number Publication date
KR101967651B1 (en) 2019-04-29

Similar Documents

Publication Publication Date Title
KR20180039402A (en) Device and method of displaying images
KR101989842B1 (en) Terminal and image processing method thereof
KR102311603B1 (en) Mobile and operating method thereof
US9792602B2 (en) Apparatus and method for providing emotion expression service in mobile communication terminal
US11570401B2 (en) Digital zoom conferencing
KR101967658B1 (en) Device and method of making video calls
CN105635625B (en) Video call method and device
US11553157B2 (en) Device and method of displaying images
JP5282329B2 (en) Communication device for processing human-related picture and video stream
CN106210797B (en) Network live broadcast method and device
JP2017531973A (en) Movie recording method and apparatus, program, and storage medium
KR20190007934A (en) Communication device, server and method of operation thereof
KR20190050198A (en) Electronic apparatus and communication method thereof
CN106992953A (en) System information acquisition method and device
JP4475579B2 (en) Video communication apparatus and video communication apparatus control method
KR101172268B1 (en) Method and System for providing service to hide object during video call
KR101967651B1 (en) Image displaying method, apparatus and computer readable recording medium
KR102051828B1 (en) Method of making video communication and device of mediating video communication
CN110213531B (en) Monitoring video processing method and device
CN110087014B (en) Video completion method, terminal and computer-readable storage medium
KR20210001154A (en) Mobile, server and operating method thereof
KR20210013923A (en) Video Call Mediating Apparatus, Method and Computer Readable Recording Medium Thereof
JP2006140596A (en) Communication terminal
CN106454128B (en) Self-shooting bar adjusting method and device
CN114140558A (en) Image data processing method, image data processing device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right