KR20180123998A - Image displaying method, apparatus and computer readable recording medium - Google Patents
Image displaying method, apparatus and computer readable recording medium Download PDFInfo
- Publication number
- KR20180123998A KR20180123998A KR1020180134869A KR20180134869A KR20180123998A KR 20180123998 A KR20180123998 A KR 20180123998A KR 1020180134869 A KR1020180134869 A KR 1020180134869A KR 20180134869 A KR20180134869 A KR 20180134869A KR 20180123998 A KR20180123998 A KR 20180123998A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- terminal
- images
- stream
- face
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Abstract
Description
본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방에 의해 부적절한 영상에 노출되는 것을 방지하기 위한 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체에 관한 것이다.The present invention relates to an image display method, an apparatus, and a computer-readable recording medium for preventing a user performing a video call from being exposed to an inappropriate image by a video communication party.
통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말이 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰 또는 스마트 태블릿과 같은 휴대용 개인 단말이 널리 보급되고 있다. 상기 단말의 대부분은 통신 기능을 포함하고 있다. 사용자는 단말을 이용하여 인터넷에서 검색을 수행하거나 다른 사용자와 메시지를 주고받을 수 있다.With the development of communication technology and the miniaturization of electronic devices, personal terminals have become widespread to general consumers. In recent years, portable personal terminals such as a smart phone or a smart tablet have become widespread. Most of the terminals include a communication function. The user can perform a search on the Internet or exchange messages with other users using the terminal.
또한, 소형 카메라 기술, 소형 마이크 기술, 소형 디스플레이 기술 및 소형 스피커 기술의 발전에 따라 스마트폰과 같은 대부분의 단말에는 카메라, 마이크, 디스플레이 및 스피커가 포함되어 있다. 사용자는 단말을 이용하여 음성을 녹음하거나 음성이 포함된 동영상을 촬영할 수 있다. 사용자는 단말에 포함된 스피커를 통해 상기 녹음된 음성을 확인하거나 디스플레이를 통해 상기 촬영된 동영상을 확인할 수 있다.In addition, with the development of small camera technology, small microphone technology, small display technology and small speaker technology, most terminals such as smart phones include cameras, microphones, displays and speakers. A user can record a voice using the terminal or a video including voice. The user can check the recorded voice through a speaker included in the terminal or confirm the photographed moving picture through a display.
또한, 사용자는 단말의 통신 기능을 이용하여 상기 녹음된 음성 또는 상기 촬영된 동영상을 다른 사용자와 공유할 수 있다. 사용자는 이전에 녹음된 음성 또는 이전에 촬영된 동영상을 다른 사용자에게 전송할 수 있다. 또한, 사용자는 단말에 의해 현재 녹음되고 있는 음성 또는 현재 촬영되고 있는 동영상을 실시간으로 다른 사용자에게 전송할 수 있다.Also, the user can share the recorded voice or the photographed moving picture with other users by using the communication function of the terminal. The user can transmit a previously recorded voice or a previously photographed video to another user. In addition, the user can transmit the voice currently being recorded by the terminal or the moving picture currently being photographed to another user in real time.
또한, 동시에, 상기 다른 사용자는 자신의 단말에 의해 현재 녹음되고 있는 음성 또는 현재 촬영되고 있는 동영상을 실시간으로 상기 사용자에게 전송할 수 있다. 사용자의 단말에 포함된 디스플레이는 사용자의 단말에 의해 현재 촬영되고 있는 동영상 및 다른 사용자의 단말에 의해 현재 촬영되고 있는 동영상을 동시에 표시할 수 있다. 또한, 사용자의 단말에 포함된 스피커는 다른 사용자의 단말에 의해 현재 녹음되고 있는 음성을 동시에 재생할 수 있다. 다시 말해서, 사용자 및 다른 사용자는 각자의 단말을 이용하여 서로 영상 통화(video call)를 할 수 있다.Also, at the same time, the other user can transmit the voice currently being recorded by the terminal or the moving picture currently being photographed to the user in real time. The display included in the user terminal can simultaneously display the moving image currently being photographed by the user's terminal and the moving image currently being photographed by another user's terminal. In addition, the speaker included in the user terminal can simultaneously reproduce the voice currently being recorded by the terminal of another user. In other words, users and other users can make video calls with each other using their terminals.
상기 사용자 및 다른 사용자는 서로 이미 아는 관계일 수도 있고, 서로 모르는 관계일 수도 있다. 상기 사용자의 단말 및 상기 다른 사용자의 단말을 포함한 복수의 단말은 서버에 연결될 수 있다. 서버는 상기 사용자의 단말 및 상기 다른 사용자의 단말 사이를 중개할 수 있다. 따라서, 상기 사용자 및 다른 사용자는 서로 모르는 관계였다고 하더라도 서버의 중개를 통해 서로 영상 통화를 할 수 있다.The user and the other user may have an already known relationship with each other or an unknown relationship with each other. A plurality of terminals including the terminal of the user and the terminal of the other user may be connected to the server. The server can mediate between the terminal of the user and the terminal of the other user. Therefore, even though the user and the other users have no relationship with each other, they can make video calls with each other through intermediation of the server.
사용자가 상대방과 서로 영상 통화를 할 때, 사용자는 상대방으로부터의 음란한 영상에 노출될 수 있다. 특히, 사용자가 서로 모르는 관계에 있는 상대방과 영상 통화를 하는 경우 사용자가 상대방으로부터의 음란한 영상에 노출될 가능성이 높을 수 있다.When the user makes a video call with the other party, the user can be exposed to the obscene video from the other party. In particular, when a user makes a video call with a partner having an unknown relationship with each other, there is a high possibility that the user is exposed to obscene images from the other party.
예를 들어, 상대방의 단말에 의해 촬영된 상대방의 벌거벗은 신체의 영상이 영상 통화 세션을 통해 사용자의 단말에 수신될 수 있다. 사용자의 단말이 상기 수신된 영상을 표시함으로써 사용자는 음란한 영상에 노출될 수 있다. 사용자가 자신이 원하지 않는 음란한 영상에 노출된 경우 사용자는 성적 수치심 또는 불쾌함을 느낄 수 있다.For example, a naked body image of the other party photographed by the other party's terminal can be received at the user's terminal through a video call session. The user's terminal displays the received image so that the user can be exposed to the sexually explicit image. If the user is exposed to an obscene video that he does not want, the user may feel sexual shame or discomfort.
본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방에 의해 부적절한 영상에 노출되는 것을 방지하기 위한 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an image display method, an apparatus, and a computer readable recording medium for preventing a user who performs a video call from being exposed to an inappropriate image by a video communication party.
또한, 본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방이 제공하는 영상에 의해 성적 수치심 또는 불쾌함을 느끼는 것을 방지할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.It is another object of the present invention to provide an image display method, an apparatus, and a computer readable recording medium capable of preventing a user who performs a video call from feeling sexual bullies or uncomfortable images by video provided by a video caller do.
또한, 본 발명은 사용자 간의 건전한 영상 통화를 유도할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공하는 것을 목적으로 한다.It is another object of the present invention to provide an image display method, apparatus, and computer readable recording medium that can induce a sound video call between users.
본 발명의 일 실시예에 따른 영상 표시 방법은, 제1 단말로부터 상기 제1 단말에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 단계, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 단계, 상기 샘플 영상 각각에서 피부색을 검출하는 단계, 상기 안면과 상기 피부색 검출 결과에 대응하여 상기 피부색이 검출된 영역에 영상 처리를 수행하는 단계 및 상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계를 포함한다.A video display method according to an embodiment of the present invention includes receiving a stream including a plurality of videos photographed by the first terminal from a first terminal, receiving at least one video selected from the plurality of videos included in the stream Detecting a face in each of the sample images, detecting a skin color in each of the sample images, performing image processing in an area in which the skin color is detected corresponding to the face and the skin color detection result, And displaying the plurality of images.
또한, 상기 안면을 검출하는 단계에서 안면이 검출되지 않고, 상기 피부색을 검출하는 단계에서 피부색이 검출되면, 상기 영상 처리를 수행하는 단계에서는 상기 피부색이 검출된 영역에 상기 영상 처리를 수행할 수 있다.If the face is not detected in the step of detecting the face and the skin color is detected in the step of detecting the skin color, the image processing may be performed in the region where the skin color is detected in the step of performing the image processing .
또한, 상기 영상 처리를 수행하는 단계는, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 대상 영상을 선택하는 단계, 각각의 상기 대상 영상 내에서 적어도 일부의 대상 영역을 선택하는 단계 및 각각의 상기 대상 영상의 상기 선택된 대상 영역에 상기 영상 처리를 수행하는 단계를 포함하고, 상기 대상 영역은 상기 피부색이 검출된 영역에 대응할 수 있다.The step of performing the image processing may include selecting at least one target image among the plurality of images included in the stream, selecting at least a part of target areas in each target image, And performing the image processing on the selected target area of the target image, wherein the target area may correspond to the area where the skin color is detected.
또한, 상기 안면을 검출하는 단계는, 상기 스트림에 포함된 상기 복수의 영상 중에서 최근의 특정한 시간에 대응하는 적어도 하나 이상의 샘플 스트림을 선택하는 단계 및 상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면을 검출하는 단계를 포함할 수 있다.In addition, the step of detecting the face may include the steps of: selecting at least one sample stream corresponding to a recent specific time among the plurality of images included in the stream; and detecting the face in the selected at least one sample image Step < / RTI >
또한, 상기 안면을 검출하는 단계는, 특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 스트림을 선택하는 단계 및 상기 새로운 샘플 스트림이 선택될 때마다 상기 새로운 샘플 스트림에서 안면을 검출하는 단계를 포함할 수 있다.In addition, the step of detecting the face includes selecting a new sample stream among the newly received images in the stream for each particular period, and detecting the face in the new sample stream each time the new sample stream is selected can do.
또한, 상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응할 수 있다.In addition, the image processing may correspond to an operation of applying a blur effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.
한편, 본 발명의 다른 실시예에 따른 영상 표시 방법은, 제1 단말이 상기 제1 단말과 영상 통화 세션이 수립된 제2 단말로부터 연속되는 복수의 영상을 포함하는 영상 스트림을 수신하는 단계, 상기 제1 단말이 상기 복수의 영상 각각에 안면이 존재하는지 여부를 판단하는 단계, 안면이 존재하지 않는 영상에서 피부색을 검출하는 단계, 상기 피부색 검출 결과에 대응하여 상기 안면이 존재하지 않는 영상에 영상 처리를 수행하는 단계 및 상기 제1 단말이 출력부를 통해 상기 영상 처리가 수행된 영상 스트림을 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided an image display method including: receiving a video stream including a plurality of consecutive images from a second terminal, in which a first terminal establishes a video call session with the first terminal; Determining whether a facial image exists in each of the plurality of images by the first terminal, detecting a skin color in an image in which the facial image does not exist, performing image processing on the image in which the facial image does not exist And displaying the video stream on which the image processing has been performed through the output unit of the first terminal.
또한, 상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응할 수 있다.In addition, the image processing may correspond to an operation of applying a blur effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.
한편, 본 발명에 따른 영상 표시 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체가 제공될 수 있다.Meanwhile, a computer-readable recording medium on which a program for performing an image display method according to the present invention is recorded can be provided.
한편, 본 발명의 일 실시예에 따른 영상 표시 장치는, 제1 단말로부터 상기 제1 단말에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 통신부, 상기 스트림에 포함된 상기 복수의 영상을 표시하는 출력부 및 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 제어부를 포함하고, 상기 제어부는 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않는 경우, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행하고, 상기 출력부는 상기 영상 처리가 수행된 상기 적어도 하나 이상의 영상을 표시한다.According to another aspect of the present invention, there is provided an image display apparatus including a communication unit that receives a stream including a plurality of images taken by the first terminal from a first terminal, a communication unit that displays the plurality of images included in the stream And a controller for detecting a face in each of at least one or more sample images selected from among the plurality of images included in the stream, wherein the controller is configured to determine whether the face is detected in at least some sample images of the sample images The image processing unit performs image processing on at least one image among the plurality of images included in the stream, and the output unit displays the at least one image on which the image processing is performed.
또한, 상기 제어부는 상기 안면이 검출되지 않은 샘플 영상에서 피부색이 검출되는 경우 상기 피부색이 검출된 영역에 상기 영상 처리를 수행할 수 있다.Also, the controller may perform the image processing on a region where the skin color is detected when a skin color is detected from a sample image in which the face is not detected.
또한, 상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응할 수 있다.In addition, the image processing may correspond to an operation of applying a blur effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.
본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방에 의해 부적절한 영상에 노출되는 것을 방지하기 위한 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.The present invention can provide an image display method, an apparatus, and a computer readable recording medium for preventing a user who performs a video call from being exposed to an inappropriate image by a video communication party.
또한, 본 발명은 영상 통화를 수행하는 사용자가 영상 통화 상대방이 제공하는 영상에 의해 성적 수치심 또는 불쾌함을 느끼는 것을 방지할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.In addition, the present invention can provide an image display method, an apparatus, and a computer-readable recording medium that can prevent a user who performs a video call from feeling a sexual shame or an unpleasantness by an image provided by a video caller.
또한, 본 발명은 사용자 간의 건전한 영상 통화를 유도할 수 있는 영상 표시 방법, 장치 및 컴퓨터 판독 가능한 기록매체를 제공할 수 있다.In addition, the present invention can provide an image display method, an apparatus, and a computer readable recording medium that can induce a sound video call between users.
도 1은 실시예에 따른 영상 표시 장치가 동작하는 환경을 나타내는 네트워크 구성도이다.
도 2는 실시예에 따른 영상 표시 장치의 구성을 나타내는 블록도이다.
도 3은 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다.
도 4는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 샘플 영상이다.
도 5는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 다른 샘플 영상이다.
도 6은 실시예에 따른 영상 처리를 수행하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 7은 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 8은 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다.
도 9는 다른 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 10은 또 다른 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 11은 또 다른 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다.
도 12는 또 다른 실시예에 따른 안면의 검출을 시도하는 단계 내지 대상 영상을 선택하는 단계가 수행되는 과정을 나타내는 순서도이다.
도 13은 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다.
도 14는 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다.
도 15는 또 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다.
도 16은 실시예에 따른 영상 처리가 수행된 영상이다.
도 17은 다른 실시예에 따른 영상 처리가 수행된 영상이다.
도 18은 또 다른 실시예에 따른 영상 처리가 수행된 영상이다.
도 19는 또 다른 실시예에 따른 영상 처리가 수행된 영상이다.
도 20은 다른 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다.1 is a network configuration diagram illustrating an environment in which an image display apparatus according to an embodiment operates.
2 is a block diagram showing a configuration of a video display device according to an embodiment.
3 is a flowchart illustrating a process of performing an image display method according to an embodiment.
4 is a sample image selected from a plurality of images included in the stream according to the embodiment.
5 is another sample image selected from a plurality of images included in the stream according to the embodiment.
6 is a flowchart illustrating a process of performing an image process according to an embodiment.
FIG. 7 is a flowchart illustrating a process of detecting a face and selecting a target image according to an exemplary embodiment of the present invention.
8 is a reference diagram for explaining a method of selecting a sample image according to an embodiment.
FIG. 9 is a flowchart illustrating a process of detecting a face and selecting a target image according to another embodiment.
FIG. 10 is a flowchart illustrating a process of detecting a facial image and selecting a target image according to another embodiment of the present invention.
11 is a reference diagram for explaining a method of selecting a sample image according to another embodiment.
FIG. 12 is a flowchart illustrating a process of detecting a facial face and selecting a target image according to another embodiment.
13 is a reference view showing a selected object area according to an embodiment.
14 is a reference view showing a selected object area according to another embodiment.
15 is a reference view showing a selected object area according to another embodiment.
16 is an image in which the image processing according to the embodiment is performed.
17 is an image in which image processing according to another embodiment is performed.
18 is an image in which image processing according to another embodiment is performed.
FIG. 19 is an image in which image processing according to another embodiment is performed.
20 is a flowchart illustrating a process of performing an image display method according to another embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.Although "first" or "second" and the like are used to describe various components, such components are not limited by such terms. Such terms may be used to distinguish one element from another. Therefore, the first component mentioned below may be the second component within the technical spirit of the present invention.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. &Quot; comprises "or" comprising "as used herein mean that the stated element or step does not exclude the presence or addition of one or more other elements or steps.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms used herein are to be construed in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
이하에서는, 도 1 내지 도 20을 참조하여 실시예에 따른 영상 표시 장치(100, 150) 및 영상 표시 방법에 대해 상세히 설명하기로 한다.Hereinafter, the
도 1은 실시예에 따른 영상 표시 장치(100, 150)가 동작하는 환경을 나타내는 네트워크 구성도이다. 도 1을 참조하면, 영상 표시 장치(100, 150)가 동작하는 환경은 제1 영상 표시 장치(100), 및 상기 제1 영상 표시 장치(100)와 서로 연결된 제2 영상 표시 장치(150)를 포함할 수 있다.1 is a network configuration diagram illustrating an environment in which the
다른 실시예에 따르면, 상기 영상 표시 장치(100, 150)가 동작하는 환경은 상기 제1 영상 표시 장치(100) 또는 상기 제2 영상 표시 장치(150)와 서로 연결된 서버(200)를 더 포함할 수 있다. 상기 영상 표시 장치(100, 150)가 동작하는 환경은 상기 서버(200)를 포함하지 않을 수 있다.According to another embodiment, the environment in which the
제1 영상 표시 장치(100)는 단말일 수 있다. 이하에서는 설명의 편의를 위해 제1 영상 표시 장치(100)를 가리키는 용어로서 제1 영상 표시 장치(100) 및 제1단말(100)을 혼용하기로 한다.The first
제1단말(100)은 예를 들어, 데스크탑 컴퓨터, 랩탑 컴퓨터, 스마트폰, 스마트 태블릿, 스마트 워치, 이동 단말, 디지털 카메라, 웨어러블 디바이스(wearable device), 또는 휴대용 전자기기 등일 수 있다. 제1단말(100)은 프로그램 또는 애플리케이션을 실행할 수 있다.The
제1단말(100)은 통신망에 연결될 수 있다. 제1단말(100)은 상기 통신망을 통해 외부의 다른 장치와 서로 연결될 수 있다. 제1단말(100)은 서로 연결된 다른 장치에 데이터를 전송하거나 상기 다른 장치로부터 데이터를 수신할 수 있다.The
제1단말(100)과 연결된 통신망은 유선 통신망, 무선 통신망, 또는 복합 통신망을 포함할 수 있다. 통신망은 3G, LTE, 또는 LTE-A 등과 같은 이동 통신망을 포함할 수 있다. 통신망은 와이파이(Wi-Fi), UMTS/GPRS, 또는 이더넷(Ethernet) 등과 같은 유선 또는 무선 통신망을 포함할 수 있다. 통신망은 마그네틱 보안 전송(MST, Magnetic Secure Transmission), RFID(Radio Frequency IDentification), NFC(Near Field Communication), 지그비(ZigBee), Z-Wave, 블루투스(Bluetooth), 저전력 블루투스(BLE, Bluetooth Low Energy), 또는 적외선 통신(IR, InfraRed communication) 등과 같은 근거리 통신망을 포함할 수 있다. 통신망은 근거리 네트워크(LAN, Local Area Network), 도시권 네트워크(MAN, Metropolitan Area Network), 또는 광역 네트워크(WAN, Wide Area Network) 등을 포함할 수 있다.The communication network connected to the
도 2는 실시예에 따른 영상 표시 장치(100, 150)의 구성을 나타내는 블록도이다. 도 2를 참조하면, 실시예에 따른 영상 표시 장치(100, 150)는 입력부(101), 제어부(102), 저장부(103), 통신부(104), 및 출력부(105)를 포함할 수 있다.2 is a block diagram showing the configuration of the
입력부(101)는 외부로부터 신호를 수신할 수 있다. 입력부(101)는 영상 표시 장치(100, 150)의 사용자로부터 신호를 수신할 수 있다. 또한, 입력부(101)는 외부 장치로부터 신호를 수신할 수 있다. 입력부(101)는 예를 들어, 마이크, 카메라, 키보드, 마우스, 트랙볼, 터치스크린, 버튼, 스위치, 센서, 네트워크 인터페이스, 또는 기타 입력 장치를 포함할 수 있다.The
입력부(101)는 입력부(101)에 포함된 카메라를 통해 외부로부터 빛을 수신할 수 있다. 입력부(101)는 외부의 사물로부터 방출된 빛 또는 외부의 사물에서 반사된 빛을 수신할 수 있다. 입력부(101)는 상기 카메라를 통해 영상 표시 장치(100, 150)의 사용자의 영상을 촬영할 수 있다. The
입력부(101)는 입력부(101)에 포함된 마이크를 통해 외부로부터 음성을 수신할 수 있다. 입력부(101)는 영상 표시 장치(100, 150)의 사용자로부터 음성을 수신할 수 있다. 또한, 입력부(101)는 외부의 음성 재생 장치로부터 음성을 수신할 수 있다. 입력부(101)는 상기 마이크를 통해 영상 표시 장치(100, 150)의 사용자의 음성을 녹음할 수 있다.The
제어부(102)는 영상 표시 장치(100, 150)의 동작을 제어할 수 있다. 제어부(102)는 영상 표시 장치(100, 150)에 포함된 각각의 구성요소와 서로 연결될 수 있다. 제어부(102)는 영상 표시 장치(100, 150)에 포함된 각각의 구성요소의 동작을 제어할 수 있다.The
제어부(102)는 신호를 처리할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호를 처리할 수 있다. 예를 들어, 제어부(102)는 입력부(101)를 통해 수신된 사용자의 요청을 처리할 수 있다. 제어부(102)는 입력부(101)에 포함된 카메라에 의해 촬영된 사용자의 영상을 처리할 수 있다. 제어부(102)는 입력부(101)에 포함된 마이크에 의해 녹음된 사용자의 음성을 처리할 수 있다.The
제어부(102)는 통신부(104)에 의해 수신된 신호를 처리할 수 있다. 예를 들어, 제어부(102)는 통신부(104)를 통해 수신된 사용자의 요청을 처리할 수 있다. 제어부(102)는 통신부(104)를 통해 수신된 다른 사용자의 영상 또는 음성을 처리할 수 있다.The
제어부(102)는 입력부(101)에 의해 수신된 신호에 대한 응답으로, 영상 표시 장치(100, 150)의 동작을 제어할 수 있다. 제어부(102)는 입력부(101)를 통해 수신된 사용자의 요청에 대한 응답으로, 영상 표시 장치(100, 150)의 동작을 제어할 수 있다.The
제어부(102)는 연산을 수행할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호에 따라 연산을 수행할 수 있다. 제어부(102)는 입력부(101)에 의해 수신된 신호 또는 저장부(103)에 저장된 데이터를 이용하여 연산을 수행할 수 있다. 예를 들어, 제어부(102)는 입력부(101)에 포함된 카메라에 의해 촬영된 영상을 인코딩할 수 있다. 제어부(102)는 입력부(101)에 포함된 마이크에 의해 녹음된 음성을 인코딩할 수 있다.The
제어부(102)는 통신부(104)에 의해 수신된 다른 사용자의 영상 또는 음성을 디코딩할 수 있다. 제어부(102)는 상기 디코딩된 영상 또는 음성에 후처리(postprocessing)를 수행할 수 있다. 예를 들어, 제어부(102)는 통신부(104)에 의해 수신된 다른 사용자의 영상에 영상 처리(image processing)를 수행할 수 있다.The
제어부(102)는 연산 결과가 저장부(103)에 저장되도록 제어할 수 있다. 제어부(102)는 연산 결과가 출력부(105)에 의해 출력되도록 제어할 수 있다.The
제어부(102)는 예를 들어, 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphic Processing Unit, GPU), 마이크로컨트롤러유닛(Micro Controller Unit, MCU), 또는 마이크로프로세서(microprocessor)를 포함할 수 있다.The
저장부(103)는 데이터를 저장할 수 있다. 저장부(103)는 제어부(102)가 연산을 수행하는 데에 이용할 데이터를 저장할 수 있다. 저장부(103)는 제어부(102)에 의해 수행된 연산 결과를 저장할 수 있다. 예를 들어, 저장부(103)는 제어부(102)에 의해 인코딩된 영상 또는 음성을 저장할 수 있다. 저장부(103)는 통신부(104)를 통해 외부로 전송할 데이터를 저장하거나 통신부(104)를 통해 외부로부터 수신된 데이터를 저장할 수 있다.The
저장부(103)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 저장부(103)는 예를 들어, 플래시(flash) 메모리, ROM, RAM, EEROM, EPROM, EEPROM, 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 등을 포함할 수 있다. 저장부(103)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.The
통신부(104)는 외부에 데이터를 전송하거나 외부로부터 데이터를 수신할 수 있다. 통신부(104)는 다른 영상 표시 장치(100, 150) 또는 서버(200)에 데이터를 전송할 수 있다. 통신부(104)는 다른 영상 표시 장치(100, 150) 또는 서버(200)로부터 데이터를 수신할 수 있다. 통신부(104)는 제어부(102)에 의해 수행된 연산 결과를 외부에 전송할 수 있다. 또한, 통신부(104)는 저장부(103)에 저장된 데이터를 외부에 전송할 수 있다. 통신부(104)는 제어부(102)가 연산을 수행하는 데에 이용할 데이터를 외부로부터 수신할 수 있다.The
통신부(104)에 의해 전송될 데이터 또는 통신부(104)에 의해 수신된 데이터는 저장부(103)에 저장될 수 있다. 예를 들어, 통신부(104)는 저장부(103)에 저장된 인코딩된 영상 또는 음성을 서버(200) 또는 다른 영상 표시 장치(100, 150)에 전송할 수 있다. 또한, 통신부(104)는 다른 영상 표시 장치(100, 150)로부터 상기 다른 영상 표시 장치(100, 150)에 의해 인코딩된 영상 또는 음성을 수신할 수 있다.The data to be transmitted by the
통신부(104)는 예를 들어, 3G 모듈, LTE 모듈, LTE-A 모듈, Wi-Fi 모듈, 와이기그(WiGig) 모듈, UWB(Ultra Wide Band) 모듈, 또는 랜카드 등과 같은 원거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(104)는 마그네틱 보안 전송(MST, Magnetic Secure Transmission) 모듈, 블루투스 모듈, NFC 모듈, RFID 모듈, 지그비(ZigBee) 모듈, Z-Wave 모듈, 또는 적외선 모듈 등과 같은 근거리용 네트워크 인터페이스를 포함할 수 있다. 또한, 통신부(104)는 기타 네트워크 인터페이스를 포함할 수 있다.The
출력부(105)는 외부에 신호를 출력할 수 있다. 출력부(105)는 예를 들어, 화면을 표시하거나, 소리를 재생하거나, 또는 진동을 출력할 수 있다. 출력부(105)는 디스플레이, 스피커, 바이브레이터, 오실레이터, 또는 기타 출력 장치를 포함할 수 있다.The
출력부(105)는 화면을 표시할 수 있다. 제어부(102)는 출력부(105)가 화면을 표시하도록 출력부(105)를 제어할 수 있다. 출력부(105)는 사용자 인터페이스를 표시할 수 있다. 출력부(105)는 사용자로부터의 입력에 대한 응답으로 다른 화면을 표시할 수 있다.The
출력부(105)는 데이터를 표시할 수 있다. 출력부(105)는 제어부(102)에 의해 수행된 연산 결과를 표시할 수 있다. 출력부(105)는 저장부(103)에 저장된 데이터를 표시할 수 있다. 출력부(105)는 통신부(104)에 의해 수신된 데이터를 표시할 수 있다.The
출력부(105)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), 또는 PDP(Plasma Display Panel) 등의 평판 표시 장치를 포함할 수 있다. 출력부(105)는 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)를 포함할 수 있다. 출력부(105)는 터치스크린을 포함할 수 있다.The
출력부(105)는 제1 영상 표시 장치(100)에 의해 촬영된 사용자의 영상 또는 제2 영상 표시 장치(150)에 의해 촬영된 다른 사용자의 영상을 표시할 수 있다. 또한, 출력부(105)는 제1 영상 표시 장치(100)에 의해 녹음된 사용자의 음성 또는 제2 영상 표시 장치(150)에 의해 녹음된 다른 사용자의 음성을 재생할 수 있다.The
제2 영상 표시 장치(150)는 단말일 수 있다. 이하에서는 설명의 편의를 위해 제2 영상 표시 장치(150)를 가리키는 용어로서 제2 영상 표시 장치(150) 및 제2단말(150)을 혼용하기로 한다.The second
제2단말(150)은 제1단말(100)과 서로 동일한 종류의 단말일 수도 있고, 서로 다른 종류의 단말일 수도 있다. 제2단말(150)은 프로그램 또는 애플리케이션을 실행할 수 있다.The
제2단말(150)은 통신망에 연결될 수 있다. 제2단말(150)은 상기 통신망을 통해 외부의 다른 장치와 서로 연결될 수 있다. 제2단말(150)은 서로 연결된 다른 장치에 데이터를 전송하거나 상기 다른 장치로부터 데이터를 수신할 수 있다.The
제2단말(150)은 상기 제1단말(100)과 서로 연결될 수 있다. 제2단말(150)은 상기 통신망을 통해 상기 제1단말(100)과 서로 연결될 수 있다. 제2단말(150)은 제1단말(100)에 데이터를 전송하거나 제1단말(100)로부터 데이터를 수신할 수 있다.And the
서로 연결된 제1단말(100) 및 제2단말(150)은 서로 메시지, 파일, 음성 데이터, 영상, 또는 동영상 등을 주고 받을 수 있다. 제2단말(150)은 제1단말(100)과의 음성 통화 세션 또는 영상 통화(video call) 세션을 수립할 수 있다. 상기 영상 통화 세션은 예를 들어, TCP(Transmission Control Protocol), UDP(User Datagram Protocol), 또는 WebRTC(Web Real-Time Communication) 등을 이용하여 수립될 수 있다. 제1단말(100)의 사용자 및 제2단말(150)의 사용자는 서로 음성 통화 또는 영상 통화를 할 수 있다.The
상기 영상 통화 세션은 제1단말(100) 및 제2단말(150) 사이에 직접적으로 수립될 수 있다. 다른 실시예에 따르면, 적어도 하나 이상의 다른 장치를 경유하여 제1단말(100) 및 제2단말(150) 사이에 영상 통화 세션이 수립될 수 있다. 예를 들어, 상기 영상 통화 세션은 제1단말(100)과 서버(200) 사이에 수립된 세션 및 서버(200)와 제2단말(150) 사이에 수립된 세션을 포함할 수 있다.The video call session may be established directly between the
제1단말(100) 및 제2단말(150)은 서로 직접 데이터를 주고 받을 수 있다. 또한, 제1단말(100) 및 제2단말(150)은 서버(200) 또는 다른 중개 장치를 경유하여 서로 데이터를 주고 받을 수 있다.The
서버(200)는 제1단말(100) 또는 제2단말(150)과 서로 연결될 수 있다. 서버(200)가 제1단말(100)과 서로 연결된 경우, 서버(200)는 제1단말(100)과 통신망을 통해 서로 데이터를 주고 받을 수 있다. 서버(200)가 제2단말(150)과 서로 연결된 경우, 서버(200)는 제2단말(150)과 통신망을 통해 서로 데이터를 주고 받을 수 있다.The
서버(200)는 제1단말(100)로부터 데이터를 수신할 수 있다. 서버(200)는 제1단말(100)로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(200)는 상기 연산 결과를 제1단말(100) 또는 제2단말(150)에 전송할 수 있다. 서버(200)는 제2단말(150)로부터 데이터를 수신할 수 있다. 서버(200)는 제2단말(150)로부터 수신된 데이터를 이용하여 연산을 수행할 수 있다. 서버(200)는 상기 연산 결과를 제1단말(100) 또는 제2단말(150)에 전송할 수 있다.The
이하에서는, 도 3 내지 도 20을 참조하여 실시예에 따른 영상 표시 방법 내에서의 영상 표시 장치(100, 150)의 보다 구체적인 동작에 대하여 상세히 설명하기로 한다.Hereinafter, more detailed operations of the
도 3은 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다. 도 3을 참조하면, 실시예에 따른 영상 표시 방법에서는, 먼저, 제1단말(100)로부터 상기 제1단말(100)에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 단계(S100)가 수행될 수 있다.3 is a flowchart illustrating a process of performing an image display method according to an embodiment. Referring to FIG. 3, in the video display method according to the embodiment, first, a step S100 of receiving a stream including a plurality of videos photographed by the first terminal 100 from the
제2단말(150)의 통신부(104)는 제1단말(100)과의 영상 통화 세션을 수립할 수 있다. 제2단말(150)의 통신부(104)는 상기 영상 통화 세션을 통해 제1단말(100)로부터 스트림을 수신할 수 있다. 상기 스트림은 복수의 영상을 포함할 수 있다. 예를 들어, 상기 스트림은 동영상(video) 또는 적어도 둘 이상의 정지 영상(still image)을 포함할 수 있다.The
상기 스트림에 포함된 복수의 영상은 제1단말(100)의 입력부(101)에 포함된 카메라에 의해 촬영된 영상일 수 있다. 제2단말(150)은 제1단말(100)에 의해 연속적으로 촬영되고 있는 복수의 영상을 상기 스트림을 통해 연속적으로 수신할 수 있다.The plurality of images included in the stream may be images captured by a camera included in the
상기 복수의 영상은 제1단말(100)의 사용자의 영상일 수 있다. 예를 들어, 상기 복수의 영상은 제1단말(100)의 사용자의 얼굴의 영상을 포함할 수 있다. 상기 복수의 영상은 제1단말(100)의 사용자의 신체의 영상을 포함할 수 있다.The plurality of images may be images of a user of the
제2단말(150)은 제1단말(100)로부터 상기 스트림을 직접 수신할 수 있다. 다른 실시예에 따르면, 제2단말(150)은 제1단말(100)로부터 서버(200)를 경유하여 상기 스트림을 수신할 수 있다.The
다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면의 검출을 시도하는 단계(S110)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 스트림에 포함된 복수의 영상 중에서 적어도 하나 이상의 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 무작위로 또는 특정한 규칙에 따라 샘플 영상을 선택할 수 있다.Next, a step of attempting to detect a face in each of at least one or more sample images selected from the plurality of images included in the stream (S110) may be performed. The
예를 들어, 제2단말(150)의 제어부(102)는 특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 상기 스트림 내에서 가장 최근에 선택된 샘플 영상보다 더 나중에 수신된 모든 영상 중에서 새로운 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 무작위로 또는 특정한 규칙에 따라 상기 새로운 샘플 영상을 선택할 수 있다. For example, the
제2단말(150)의 제어부(102)는 상기 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면의 검출을 시도할 수 있다. 제2단말(150)의 제어부(102)는 예를 들어, OpenCV(Open Source Computer Vision)와 같은 오픈 소스(open source) 라이브러리 또는 다른 상용 프로그램을 이용하여 하나의 영상 내에 사람의 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다. 제2단말(150)의 제어부(102)는 각각의 샘플 영상마다 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.The
도 4는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 샘플 영상이다. 또한, 도 5는 실시예에 따른 스트림에 포함된 복수의 영상 중에서 선택된 다른 샘플 영상이다. 제2단말(150)의 제어부(102)는 도 4의 샘플 영상 및 도 5의 샘플 영상 각각에서 안면의 검출을 시도할 수 있다.4 is a sample image selected from a plurality of images included in the stream according to the embodiment. 5 is another sample image selected from a plurality of images included in the stream according to the embodiment. The
다시 도 3을 참조하면, 다음으로, 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S120)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 각각의 샘플 영상마다 안면에 대응하는 부분지 존재하는지 여부를 판정할 수 있다. 상기 판정 결과, 제2단말(150)의 제어부(102)는 상기 샘플 영상 중에서 적어도 하나의 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다.Referring again to FIG. 3, a step (S120) may be performed in which it is determined that the face is not detected in at least some sample images among the sample images. The
예를 들어, 제2단말(150)의 제어부(102)는 도 4의 영상에서와 같이 제1단말(100)의 사용자의 상반신에 대응하는 샘플 영상에서 안면이 검출되었다고 판정할 수 있다. 그러나, 제2단말(150)의 제어부(102)는 도 5의 영상에서와 같이 제1단말(100)의 사용자의 하반신에 대응하는 샘플 영상에서는 안면이 검출되지 않았다고 판정할 수 있다.For example, the
다시 도 3을 참조하면, 다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행하는 단계(S130)가 수행될 수 있다. 만약 상기와 같이 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정된 경우, 제1단말(100)로부터 수신된 복수의 영상은 음란한 영상을 포함한다고 판정될 수 있다. 예를 들어, 제1단말(100)로부터 수신된 복수의 영상에 도 5와 같은 영상이 포함된 경우, 상기 복수의 영상은 음란한 영상을 포함한다고 판정될 수 있다.Referring again to FIG. 3, step S 130 of performing image processing on at least one or more images among the plurality of images included in the stream may be performed. If it is determined that the face is not detected in at least some sample images among the sample images as described above, it may be determined that the plurality of images received from the
제2단말(150)의 제어부(102)는 제2단말(150)의 사용자가 음란한 영상에 노출되는 것을 방지하기 위하여 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행할 수 있다. 제2단말(150)의 제어부(102)는 모든 상기 복수의 영상에 영상 처리를 수행하거나, 상기 복수의 영상 중에서 선택된 일부의 영상에 영상 처리를 수행할 수 있다.The
도 6은 실시예에 따른 영상 처리를 수행하는 단계(S130)가 수행되는 과정을 나타내는 순서도이다. 도 6을 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 대상 영상을 선택하는 단계(S131)가 수행될 수 있다.6 is a flowchart illustrating a process of performing image processing (S130) according to an embodiment. Referring to FIG. 6, at least one target image among the plurality of images included in the stream may be selected (S131).
제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 영상 처리를 수행할 적어도 하나 이상의 대상 영상을 선택할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 상기 스트림에 포함된 모든 상기 복수의 영상을 상기 대상 영상으로서 선택할 수 있다.The
다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서, 안면이 검출되지 않았다고 판정된 상기 샘플 영상에 대응하는 적어도 하나 이상의 영상에 영상 처리를 수행할 수 있다. 상기 샘플 영상에 대응하는 영상은 상기 복수의 영상 중에서 상기 샘플 영상이 수신된 시각으로부터 특정한 시간 범위 내에 수신된 모든 영상일 수 있다.According to another embodiment, the
예를 들어, 상기 스트림을 통해 1초당 20개의 영상이 연속적으로 수신된다고 가정하기로 한다. 또한, 4초의 주기가 돌아올 때마다 가장 최근에 수신된 영상이 새로운 샘플 영상으로서 선택된다고 가정하기로 한다. 또한, 2개의 샘플 영상에서 안면이 검출되지 않았다고 판정되었다고 가정하기로 한다. 상기 2개의 샘플 영상이 수신된 시각은 각각 24초 시점 및 32초 시점일 수 있다. 상기 2개의 샘플 영상에 대응하는 영상은 22초 시점으로부터 26초 시점까지의 시간 범위 내에 수신된 약 80개의 영상 및 30초 시점으로부터 34초 시점까지의 시간 범위 내에 수신된 약 80개의 영상일 수 있다.For example, it is assumed that 20 images are received consecutively per second through the stream. It is also assumed that the most recently received image is selected as a new sample image every 4 seconds cycle. It is also assumed that the face is not detected in the two sample images. The time at which the two sample images are received may be 24 seconds and 32 seconds, respectively. The image corresponding to the two sample images may be about 80 images received within the time range from the 22 second time point to the 26 second time point and about 80 images received within the time range from the 30 second time point to the 34 second time point .
제2단말(150)의 제어부(102)가 상기 샘플 영상을 선택하는 방법 및 상기 대상 영상을 선택하는 방법은 실시예에 따라 달라질 수 있다. 도 7은 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다.The method for the
도 7을 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 최근의 특정한 시간에 대응하는 적어도 하나 이상의 샘플 영상을 선택하는 단계(S210)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 스트림 내에서 최근의 특정한 시간 동안 수신된 영상 중에서 적어도 하나 이상의 샘플 영상을 선택할 수 있다.Referring to FIG. 7, a step S210 of selecting at least one sample image corresponding to a specific recent time among the plurality of images included in the stream may be performed. The
예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 영상 중에서 2개의 샘플 영상을 선택할 수 있다. 도 8은 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다. 도 8을 참조하면, 스트림 내에서 제1영상(301)이 샘플 영상으로서 과거에 이미 선택되어 있을 수 있다. 제2단말(150)의 제어부(102)는 현재로부터 특정한 시간 이전의 시점인 제1시점(t1) 이후에 수신된 영상 중에서 제2영상(302) 및 제3영상(303)을 샘플 영상으로서 추가적으로 선택할 수 있다.For example, the
다시 도 7을 참조하면, 다음으로, 상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면의 검출을 시도하는 단계(S211)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 선택된 샘플 영상 각각에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)에서 안면의 검출을 시도할 수 있다.Referring again to FIG. 7, a step S211 of attempting to detect the face in the selected at least one sample image may be performed. The
다음으로, 상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S220)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 선택된 샘플 영상에서 안면에 대응하는 부분이 존재하지 않는다고 판정할 수 있다.Next, it can be determined that the face is not detected in the selected at least one sample image (S220). The
제2단말(150)의 제어부(102)는 선택된 샘플 영상 모두에서 안면에 대응하는 부분이 존재하지 않는 경우, 상기 안면이 검출되지 않았다고 판정할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 선택된 샘플 영상 중에서 적어도 하나 이상의 샘플 영상에서 안면에 대응하는 부분이 존재하지 않는 경우, 상기 안면이 검출되지 않았다고 판정할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)에서 안면이 검출되지 않았다고 판정할 수 있다.The
다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 최근의 특정한 시간에 대응하는 모든 영상을 상기 대상 영상으로서 선택하는 단계(S231)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다. 만약 상기 스트림을 통해 1초당 20개의 영상이 연속적으로 수신되고 있는 경우, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 약 20개의 영상을 상기 대상 영상으로서 선택할 수 있다. 도 8을 참조하면, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)을 포함하여 현재로부터 특정한 시간 이전의 시점(t1) 이후에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.Next, a step S231 of selecting all images corresponding to the latest specific time among the plurality of images included in the stream as the target image may be performed. For example, the
도 9는 다른 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다. 도 9를 참조하면, 먼저, 특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 영상을 선택하는 단계(S310)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 특정한 주기마다 가장 최근에 선택된 샘플 영상보다 더 나중에 수신된 모든 영상 중에서 적어도 하나 이상의 새로운 샘플 영상을 선택할 수 있다.FIG. 9 is a flowchart illustrating a process of detecting a facial face (S110) to selecting a target image (S131) according to another embodiment. Referring to FIG. 9, a new sample image among the newly received images in the stream may be selected (S310) at a specific period. The
예를 들어, 제2단말(150)의 제어부(102)는 1초마다 2개의 새로운 샘플 영상을 선택할 수 있다. 도 8을 참조하면, 제2단말(150)의 제어부(102)는 제1영상(301)보다 더 나중에 수신된 모든 영상 중에서 제2영상(302) 및 제3영상(303)을 새로운 샘플 영상으로서 선택할 수 있다.For example, the
다시 도 9를 참조하면, 다음으로, 상기 새로운 샘플 영상이 선택될 때마다 상기 새로운 샘플 영상에서 상기 안면의 검출을 시도하는 단계(S311)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 특정한 주기마다 새로이 선택된 샘플 영상에서 안면의 검출을 시도할 수 있다.Referring again to FIG. 9, a step S311 of attempting to detect the face in the new sample image may be performed each time the new sample image is selected. The
다음으로, 상기 샘플 영상 중에서 최근의 특정한 시간 이내에 선택된 모든 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S320)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 이내에 선택된 2개의 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 다시 말해서, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)에서 안면이 검출되지 않았다고 판정할 수 있다.Next, a step S320 may be performed in which it is determined that the face is not detected in all of the sample images selected within the latest specific time among the sample images. For example, the
다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 최근의 특정한 시간에 대응하는 모든 영상을 상기 대상 영상으로서 선택하는 단계(S331)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다. 만약 상기 스트림을 통해 1초당 20개의 영상이 연속적으로 수신되고 있는 경우, 제2단말(150)의 제어부(102)는 최근의 1초 동안에 수신된 약 20개의 영상을 상기 대상 영상으로서 선택할 수 있다. 도 8을 참조하면, 제2단말(150)의 제어부(102)는 제2영상(302) 및 제3영상(303)을 포함하여 현재로부터 특정한 시간 이전의 시점(t1) 이후에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.Next, the step S331 of selecting all the images corresponding to the latest specific time among the plurality of images included in the stream as the target image may be performed. For example, the
도 10은 또 다른 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다. 도 10을 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 제1 샘플 영상에서 상기 안면의 검출을 시도하는 단계(S410)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 제1 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 상기 제1 샘플 영상에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.FIG. 10 is a flowchart illustrating a process of detecting a facial face according to another embodiment (S110) to selecting a target image (S131). Referring to FIG. 10, a step S410 of attempting to detect the face in a first sample image selected from the plurality of images included in the stream may be performed. The
도 11은 또 다른 실시예에 따른 샘플 영상을 선택하는 방법을 설명하기 위한 참고도이다. 도 11을 참조하면, 스트림 내에서 제4영상(311)이 샘플 영상으로서 과거에 이미 선택되어 있을 수 있다. 제2단말(150)의 제어부(102)는 제4영상(311)보다 더 나중에 수신된 영상 중에서 제5영상(312)을 상기 제1 샘플 영상으로서 선택할 수 있다.11 is a reference diagram for explaining a method of selecting a sample image according to another embodiment. Referring to FIG. 11, the
다음으로, 상기 스트림 내에서 상기 제1 샘플 영상보다 더 나중에 수신된 모든 영상 중에서 선택된 적어도 하나 이상의 제2 샘플 영상 각각에서 상기 안면의 검출을 시도하는 단계(S411)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 제1 샘플 영상보다 더 나중에 수신된 영상 중에서 적어도 하나 이상의 제2 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 각각의 제2 샘플 영상에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.Next, a step S411 of attempting to detect the face in each of at least one second sample image selected from all the images received later than the first sample image in the stream may be performed. The
예를 들어, 도 11을 참조하면, 제2단말(150)의 제어부(102)는 제5영상(312)보다 더 나중에 수신된 영상 중에서 제6영상(313)을 상기 제2 샘플 영상으로서 선택할 수 있다. 제2단말(150)의 제어부(102)는 제6영상(313)에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.For example, referring to FIG. 11, the
다른 예로서, 제2단말(150)의 제어부(102)는 2개의 영상을 상기 제2 샘플 영상으로서 선택할 수 있다. 상기 2개의 영상은 제6영상(313), 및 제5영상(312)보다 더 나중에 수신되고 제6영상(313)보다 더 먼저 수신된 다른 영상을 포함할 수 있다. 제2단말(150)의 제어부(102)는 상기 2개의 영상 각각에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.As another example, the
다시 도 10을 참조하면, 다음으로, 상기 제1 샘플 영상 및 모든 상기 적어도 하나 이상의 제2 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S420)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 제1 샘플 영상 및 제2 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제5영상(312) 및 제6영상(313)에서 안면이 검출되지 않았다고 판정할 수 있다.Referring again to FIG. 10, a step S420 may be performed in which it is determined that the face is not detected in the first sample image and all the at least one second sample image. The
다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 제1 샘플 영상 및 제2 샘플 영상에 대응하는 영상을 상기 대상 영상으로서 선택하는 단계(S431)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 제1 샘플 영상 및 제2 샘플 영상에 대응하는 영상을 상기 대상 영상으로서 선택할 수 있다.Next, a step S431 of selecting, as the target image, an image corresponding to the first sample image and the second sample image among the plurality of images included in the stream may be performed. The
예를 들어, 상기 제1 샘플 영상 및 제2 샘플 영상에 대응하는 영상은 상기 복수의 영상 중에서 상기 제1 샘플 영상 및 상기 제1 샘플 영상보다 더 나중에 수신된 모든 영상을 포함할 수 있다. 도 11을 참조하면, 제2단말(150)의 제어부(102)는 제5영상(312), 및 제5영상(312)보다 더 나중에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.For example, an image corresponding to the first sample image and the second sample image may include all the images received later than the first sample image and the first sample image among the plurality of images. Referring to FIG. 11, the
다른 실시예에 따르면, 선택된 대상 영상은 상기 제1 샘플 영상, 상기 적어도 하나 이상의 제2 샘플 영상, 및 주변 영상을 포함할 수 있다. 상기 주변 영상은 상기 제1 샘플 영상보다 더 나중에 수신되고 상기 적어도 하나 이상의 제2 샘플 영상 중에서 가장 나중에 수신된 영상보다 더 먼저 수신된 모든 영상일 수 있다. 도 11을 참조하면, 제2단말(150)의 제어부(102)는 제5영상(312), 제6영상(313), 및 제5영상(312)보다 더 나중에 수신되고 제6영상(313)보다 더 먼저 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다.According to another embodiment, the selected object image may include the first sample image, the at least one second sample image, and the surrounding image. The peripheral image may be received later than the first sample image and may be all images received earlier than the last received image among the at least one second sample image. 11, the
도 12는 또 다른 실시예에 따른 안면의 검출을 시도하는 단계(S110) 내지 대상 영상을 선택하는 단계(S131)가 수행되는 과정을 나타내는 순서도이다. 도 12를 참조하면, 먼저, 상기 스트림에 포함된 상기 복수의 영상 중에서 제1시각에 대응하는 제1 샘플 영상 및 상기 제1시각으로부터 특정한 시간 이상의 시간차를 갖는 제2시각에 대응하는 제2 샘플 영상을 포함하는 적어도 둘 이상의 샘플 영상을 선택하는 단계(S510)가 수행될 수 있다.FIG. 12 is a flowchart illustrating a process of performing detection of a facial face (S110) to selecting a target image (S131) according to still another embodiment. 12, first, a first sample image corresponding to a first time among the plurality of images included in the stream and a second sample image corresponding to a second time having a time difference of a predetermined time or longer from the first time (S510) may be performed to select at least two or more sample images.
제2단말(150)의 제어부(102)는 스트림에 포함된 복수의 영상 중에서 제1 샘플 영상을 선택할 수 있다. 상기 제1 샘플 영상이 수신된 시각은 제1시각일 수 있다. 제2단말(150)의 제어부(102)는 제1 샘플 영상이 수신된 시각으로부터 특정한 시간 이상이 지난 후에 수신된 영상을 제2 샘플 영상으로서 선택할 수 있다. 다시 말해서, 제1 샘플 영상이 수신된 시각 및 제2 샘플 영상이 수신된 시각의 시간차는 상기 특정한 시간 이상일 수 있다. 상기 특정한 시간은 예를 들어, 1초일 수 있다.The
또한, 제2단말(150)의 제어부(102)는 제1 샘플 영상보다 더 먼저 수신된 영상 중에서 샘플 영상을 추가적으로 선택할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제1 샘플 영상보다 더 나중에 수신되고 제2 샘플 영상보다 더 먼저 수신된 영상 중에서 샘플 영상을 추가적으로 선택할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제2 샘플 영상보다 더 나중에 수신된 영상 중에서 샘플 영상을 추가적으로 선택할 수 있다.In addition, the
예를 들어, 도 11을 참조하면, 제2단말(150)의 제어부(102)는 스트림 내에서 임의의 제2시점(t2)에 수신된 영상을 제1 샘플 영상으로서 선택할 수 있다. 제2단말(150)의 제어부(102)는 제2시점(t2)보다 1초 이상이 지난 후에 수신된 영상 중에서 제3시점(t3)에 수신된 영상을 제2 샘플 영상으로서 선택할 수 있다.For example, referring to FIG. 11, the
제2단말(150)의 제어부(102)는 제2시점(t2)보다 더 먼저 수신된 영상 중에서 제4영상(311)을 샘플 영상으로서 추가적으로 선택할 수 있다. 제2단말(150)의 제어부(102)는 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 영상 중에서 제5영상(312) 및 제6영상(313)을 샘플 영상으로서 추가적으로 선택할 수 있다. 제2단말(150)의 제어부(102)는 제3시점(t3)보다 더 나중에 수신된 영상 중에서 제7영상(314)을 샘플 영상으로서 추가적으로 선택할 수 있다.The
다시 도 12를 참조하면, 다음으로, 상기 선택된 적어도 둘 이상의 샘플 영상 각각에서 상기 안면의 검출을 시도하는 단계(S511)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 제1 샘플 영상, 제2 샘플 영상, 및 추가적으로 선택된 모든 샘플 영상에서 안면의 검출을 시도할 수 있다.Referring again to FIG. 12, next step S511 of attempting to detect the face in each of the at least two selected sample images may be performed. The
다음으로, 상기 선택된 적어도 둘 이상의 샘플 영상 중에서 상기 제1 샘플 영상, 상기 제2 샘플 영상, 및 상기 제1시각으로부터 상기 제2시각까지의 시간에 대응하는 모든 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S520)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 제2시점(t2)에 수신된 제1 샘플 영상에서 안면에 대응하는 부분이 검출되지 않았다고 판정할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제3시점(t3)에 수신된 제2 샘플 영상에서 안면에 대응하는 부분이 검출되지 않았다고 판정할 수 있다. 또한, 제2단말(150)의 제어부(102)는 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 영상 중에서 샘플 영상으로서 선택된 제5영상(312) 및 제6영상(313)에서 안면이 검출되지 않았다고 판정할 수 있다. 다시 말해서, 제2단말(150)의 제어부(102)는 선택된 모든 샘플 영상 중에서, 제2시점(t2)으로부터 제3시점(t3)까지의 시간 동안에 수신된 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다.Next, it is determined that the face is not detected in all of the sample images corresponding to the time from the first sample image, the second sample image, and the first time to the second time among the selected at least two sample images (S520) may be performed. The
다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 제1시각으로부터 상기 제2시각까지의 시간에 대응하는 모든 영상을 상기 대상 영상으로서 선택하는 단계(S531)가 수행될 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 제2시점(t2)으로부터 제3시점(t3)까지의 시간 동안에 수신된 모든 영상을 상기 대상 영상으로서 선택할 수 있다. 상기 선택된 대상 영상은 상기 제1 샘플 영상, 상기 제2 샘플 영상, 및 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 샘플 영상을 포함할 수 있다. 또한, 상기 선택된 대상 영상은 상기 스트림 내에서 제2시점(t2)보다 더 나중에 수신되고 제3시점(t3)보다 더 먼저 수신된 모든 영상 중에서 샘플 영상으로 선택되지 않은 모든 나머지 영상을 포함할 수 있다.Next, the step S531 of selecting all the images corresponding to the time from the first time to the second time among the plurality of images included in the stream may be performed as the subject image. For example, the
다시 도 6을 참조하면, 상기 대상 영상을 선택하는 단계(S131)가 수행된 후에, 각각의 상기 대상 영상 내에서 적어도 일부의 대상 영역을 선택하는 단계(S132)가 수행될 수 있다. 도 13은 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다. 도 13에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 각각의 상기 대상 영상의 전체 영역을 상기 대상 영역으로서 선택할 수 있다.Referring again to FIG. 6, after the step S131 of selecting the target image is performed, a step S132 of selecting at least a part of the target regions in each of the target images may be performed. 13 is a reference view showing a selected object area according to an embodiment. As shown in FIG. 13, the
다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 각각의 상기 대상 영상 내에서 피부색에 대응하는 영역을 상기 대상 영역으로서 선택할 수 있다. 제2단말(150)의 제어부(102)는 각각의 대상 영상에서 피부색에 대응하는 영역을 검출할 수 있다. 상기 피부색은 적어도 하나 이상의 색상을 가리킬 수 있다. 각각의 사람이 갖는 피부색은 서로 다를 수 있으므로, 제2단말(150)의 제어부(102)는 여러 가지의 피부색에 대하여 상기 피부색에 대응하는 영역을 검출할 수 있다.According to another embodiment, the
도 14는 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다. 도 14에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 대상 영상 내에서 피부색을 갖는 영역을 상기 대상 영역으로서 선택할 수 있다. 다시 말해서, 상기 선택된 대상 영역에 포함된 각각의 픽셀(pixel)은 피부색을 가질 수 있다.14 is a reference view showing a selected object area according to another embodiment. As shown in Fig. 14, the
제2단말(150)의 제어부(102)는 각각의 대상 영상 내에서 적어도 하나 이상의 폐곡선을 상기 대상 영역으로서 선택할 수 있다. 예를 들어, 도 14에 도시된 바와 달리, 피부색을 갖는 영역이 서로 인접하거나 이격된 복수의 폐곡선을 포함할 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 전부를 상기 대상 영역으로서 선택할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 중에서 가장 넓은 면적을 갖는 하나 이상의 폐곡선을 상기 대상 영역으로서 선택할 수 있다.The
도 15는 또 다른 실시예에 따른 선택된 대상 영역을 나타내는 참고도이다. 도 15에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 대상 영상 내에서 피부색을 갖는 영역을 포함하는 사각형의 영역을 상기 대상 영상으로서 선택할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 사각형의 영역 대신에, 상기 피부색을 갖는 영역을 포함하는 원형, 타원형, 또는 다각형의 영역을 상기 대상 영상으로서 선택할 수 있다.15 is a reference view showing a selected object area according to another embodiment. As shown in FIG. 15, the
제2단말(150)의 제어부(102)는 각각의 대상 영상 내에서 적어도 하나 이상의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다. 예를 들어, 도 15에 도시된 바와 달리, 피부색을 갖는 영역이 서로 인접하거나 이격된 복수의 폐곡선을 포함할 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 전부를 포함하는 하나의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다. 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 복수의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다. 각각의 다각형의 영역은 상기 복수의 폐곡선 중에서 적어도 하나 이상의 폐곡선을 포함할 수 있다. 또 다른 실시예에 따르면, 제2단말(150)의 제어부(102)는 상기 복수의 폐곡선 중에서 가장 넓은 면적을 갖는 하나 이상의 폐곡선을 포함하는 하나 이상의 다각형의 영역을 상기 대상 영역으로서 선택할 수 있다.The
다시 도 6을 참조하면, 다음으로, 각각의 상기 대상 영상의 상기 선택된 대상 영역에 상기 영상 처리를 수행하는 단계(S133)가 수행될 수 있다. 도 16은 실시예에 따른 영상 처리가 수행된 영상이다. 도 16에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 도 15에서와 같이 선택된 대상 영역을 상기 대상 영상으로부터 삭제할 수 있다.Referring again to FIG. 6, the step S133 of performing the image processing on the selected target area of each of the target images may be performed. 16 is an image in which the image processing according to the embodiment is performed. As shown in FIG. 16, the
도 17은 다른 실시예에 따른 영상 처리가 수행된 영상이다. 다른 예로서, 도 17에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 상기 대상 영역에 블러(blur) 효과를 적용할 수 있다. 도 18은 또 다른 실시예에 따른 영상 처리가 수행된 영상이다. 또 다른 예로서, 도 18에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 상기 대상 영역에 모자이크(mosaic) 효과를 적용할 수 있다. 도 19는 또 다른 실시예에 따른 영상 처리가 수행된 영상이다. 또 다른 예로서, 도 19에 도시된 바와 같이, 제2단말(150)의 제어부(102)는 상기 대상 영역을 다른 영상으로 치환할 수 있다.17 is an image in which image processing according to another embodiment is performed. As another example, as shown in FIG. 17, the
또 다른 예로서, 제2단말(150)의 제어부(102)는 상기 대상 영역의 색상, 명도, 대비(contrast) 또는 채도를 조절할 수 있다. 또한, 제2단말(150)의 제어부(102)는 위에 나열된 영상 처리의 조합을 수행할 수 있다. 예를 들어, 제2단말(150)의 제어부(102)는 상기 대상 영역에 블러 효과를 적용하고, 채도를 낮추고, 대비를 낮출 수 있다.As another example, the
다시 도 3을 참조하면, 다음으로, 상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계(S140)가 수행될 수 있다. 제2단말(150)의 출력부(105)는 상기 복수의 영상을 표시할 수 있다. 예를 들어, 제2단말(150)의 출력부(105)에 포함된 디스플레이는 1초당 20개의 영상을 연속적으로 표시할 수 있다. 상기 복수의 영상은 제2단말(150)의 제어부(102)에 의해 영상 처리가 수행된 적어도 하나 이상의 영상을 포함할 수 있다.Referring again to FIG. 3, a step of displaying the plurality of images included in the stream (S140) may be performed. The
이로써, 제1단말(100)의 사용자와 영상 통화를 하는 제2단말(150)의 사용자가 상대방으로부터의 음란한 영상에 노출되는 것이 방지될 수 있다. 또한, 제2단말(150)의 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함이 방지될 수 있다. 또한, 제1단말(100)의 사용자 및 제2단말(150)의 사용자 간의 건전한 영상 통화가 유도될 수 있다.Thus, the user of the
다음으로, 상기 영상 처리의 해제에 대한 요청을 수신하는 단계(S150)가 수행될 수 있다. 예를 들어, 제2단말(150)의 사용자는 부적절한 영상에 노출될 수 있음을 감수하고, 수신된 영상의 원본을 보기를 원할 수 있다. 제2단말(150)의 출력부(105)에 포함된 디스플레이는 상기 영상 처리를 해제할지 여부를 묻는 메시지를 출력할 수 있다. 예를 들어, 제2단말(150)의 출력부(105)는 "안면이 검출되지 않았습니다. 원본을 보기 원하시면 버튼을 눌러주세요."와 같은 메시지를 출력할 수 있다. 제2단말(150)의 사용자는 상기 메시지에 대한 응답으로 제2단말(150)의 입력부(101)에 포함된 버튼을 누를 수 있다. 다시 말해서, 제2단말(150)의 입력부(101)는 제2단말(150)의 사용자로부터 상기 영상 처리의 해제에 대한 요청을 수신할 수 있다.Next, a step of receiving a request for releasing the image processing (S150) may be performed. For example, the user of the
다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 상기 요청이 수신된 후에 수신된 영상을 상기 영상 처리 없이 표시하는 단계(S160)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 요청이 수신된 후에 수신된 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 제2단말(150)의 제어부(102)는 위와 같은 판정에도 불구하고, 상기 요청이 수신된 후에 수신된 영상에 영상 처리를 수행하지 않을 수 있다. 제2단말(150)의 출력부(105)는 상기 요청이 수신된 후에 수신된 적어도 하나 이상의 영상을 상기 영상 처리 없이 표시할 수 있다.Next, a step of displaying the received image after the request is received among the plurality of images included in the stream, without performing the image processing, may be performed (S160). The
도 20은 다른 실시예에 따른 영상 표시 방법이 수행되는 과정을 나타내는 순서도이다. 도 20을 참조하면, 먼저, 제1단말(100)과의 영상 통화 세션을 수립하는 단계(S600)가 수행될 수 있다. 제2단말(150)의 통신부(104)는 제1단말(100)과의 영상 통화 세션을 수립할 수 있다.20 is a flowchart illustrating a process of performing an image display method according to another embodiment. Referring to FIG. 20, a step S600 of establishing a video call session with the
다음으로, 상기 영상 통화 세션을 통해 상기 제1단말(100)에 의해 촬영된 복수의 영상을 포함하는 스트림을 수신하는 단계(S610)가 수행될 수 있다. 제2단말(150)의 통신부(104)는 상기 영상 통화 세션을 통해 제1단말(100)로부터 스트림을 수신할 수 있다. 상기 스트림은 복수의 영상을 포함할 수 있다.Next, a step S610 of receiving a stream including a plurality of images photographed by the
다음으로, 상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계(S620)가 수행될 수 있다. 제2단말(150)의 출력부(105)는 수신된 상기 복수의 영상을 표시할 수 있다.Next, the step of displaying the plurality of images included in the stream (S620) may be performed. The
다음으로, 상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면의 검출을 시도하는 단계(S630)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 상기 복수의 영상 중에서 적어도 하나 이상의 샘플 영상을 선택할 수 있다. 제2단말(150)의 제어부(102)는 선택된 샘플 영상 각각에서 안면에 대응하는 부분이 존재하는지 여부를 검출할 수 있다.Next, a step S630 of attempting to detect a face in each of at least one or more sample images selected from the plurality of images included in the stream may be performed. The
다음으로, 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않았다고 판정하는 단계(S640)가 수행될 수 있다. 제2단말(150)의 제어부(102)는 적어도 하나 이상의 샘플 영상에서 안면이 검출되지 않았다고 판정할 수 있다. 샘플 영상에서 안면이 검출되지 않은 경우, 상기 복수의 영상에는 부적절한 영상이 포함되어 있을 수 있다.Next, a step S640 may be performed in which it is determined that the face is not detected in at least some sample images among the sample images. The
다음으로, 상기 영상 통화 세션을 종료하는 단계(S650)가 수행될 수 있다. 제2단말(150)의 통신부(104)는 제1단말(100)과의 영상 통화 세션을 종료할 수 있다. 이로써, 제1단말(100)의 사용자와 영상 통화를 하는 제2단말(150)의 사용자가 상대방으로부터의 부적절한 영상에 노출되는 것이 방지될 수 있다.Next, ending the video call session (S650) may be performed. The
이상에서 설명된 실시예에 따르면, 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 음란한 영상에 노출되는 것이 방지될 수 있다. 또한, 상대방과 영상 통화를 하는 사용자가 상대방으로부터의 영상에 의해 느낄 수 있는 성적 수치심 또는 불쾌함이 방지될 수 있다. 또한, 사용자 간의 건전한 영상 통화가 유도될 수 있다.According to the embodiment described above, it is possible to prevent a user who makes a video call with a partner from being exposed to an obscene image from the other party. In addition, a sexual shame or uncomfortable feeling that a user who makes a video call with the other party can feel by the image from the other party can be prevented. In addition, a sound video call between users can be induced.
이상에서 설명된 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다.The embodiments described above may also be embodied in the form of a recording medium including instructions executable by a computer, such as program modules, being executed by a computer. Computer readable media can be any available media that can be accessed by a computer, and can include both volatile and nonvolatile media, removable and non-removable media.
또한, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 또는 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 통신 매체는 전형적으로 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함할 수 있다.The computer-readable medium may also include computer storage media or communication media. Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism, and may include any information delivery media.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
100: 제1 영상 표시 장치, 제1 단말
101: 입력부
102: 제어부
103: 저장부
104: 통신부
105: 출력부
150: 제2 영상 표시 장치, 제2단말
200: 서버
301: 제1영상
302: 제2영상
303: 제3영상
311: 제4영상
312: 제5영상
313: 제6영상
314: 제7영상100: a first video display device, a first terminal
101: Input unit
102:
103:
104:
105: Output section
150: second video display device, second terminal
200: Server
301: First video
302: Second image
303: Third video
311: fourth image
312: fifth image
313: the sixth image
314: Seventh image
Claims (12)
상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 단계;
상기 샘플 영상 각각에서 피부색을 검출하는 단계;
상기 안면과 상기 피부색 검출 결과에 대응하여 상기 피부색이 검출된 영역에 영상 처리를 수행하는 단계; 및
상기 스트림에 포함된 상기 복수의 영상을 표시하는 단계;
를 포함하는 영상 표시 방법.The method comprising: receiving a stream including a plurality of images taken by the first terminal from a first terminal;
Detecting a face in each of at least one or more sample images selected from the plurality of images included in the stream;
Detecting skin color in each of the sample images;
Performing image processing on an area where the skin color is detected corresponding to the face and the skin color detection result; And
Displaying the plurality of images included in the stream;
And displaying the image.
상기 안면을 검출하는 단계에서 안면이 검출되지 않고, 상기 피부색을 검출하는 단계에서 피부색이 검출되면,
상기 영상 처리를 수행하는 단계에서는 상기 피부색이 검출된 영역에 상기 영상 처리를 수행하는 영상 표시 방법.The method according to claim 1,
If the face is not detected in the step of detecting the face and the skin color is detected in the step of detecting the skin color,
Wherein the image processing is performed in a region where the skin color is detected.
상기 영상 처리를 수행하는 단계는,
상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 대상 영상을 선택하는 단계;
각각의 상기 대상 영상 내에서 적어도 일부의 대상 영역을 선택하는 단계; 및
각각의 상기 대상 영상의 상기 선택된 대상 영역에 상기 영상 처리를 수행하는 단계;
를 포함하고,
상기 대상 영역은 상기 피부색이 검출된 영역에 대응하는 영상 표시 방법.The method according to claim 1,
The step of performing the image processing includes:
Selecting at least one target image from the plurality of images included in the stream;
Selecting at least some object regions within each of the object images; And
Performing the image processing on the selected target area of each of the target images;
Lt; / RTI >
Wherein the object area corresponds to the area where the skin color is detected.
상기 안면을 검출하는 단계는,
상기 스트림에 포함된 상기 복수의 영상 중에서 최근의 특정한 시간에 대응하는 적어도 하나 이상의 샘플 스트림을 선택하는 단계; 및
상기 선택된 적어도 하나 이상의 샘플 영상에서 상기 안면을 검출하는 단계;
를 포함하는 영상 표시 방법.The method according to claim 1,
The step of detecting the face includes:
Selecting at least one sample stream corresponding to a specific recent time among the plurality of images included in the stream; And
Detecting the face in the selected at least one sample image;
And displaying the image.
상기 안면을 검출하는 단계는,
특정한 주기마다 상기 스트림 내의 새로이 수신된 영상 중에서 새로운 샘플 스트림을 선택하는 단계; 및
상기 새로운 샘플 스트림이 선택될 때마다 상기 새로운 샘플 스트림에서 안면을 검출하는 단계;
를 포함하는 영상 표시 방법.5. The method of claim 4,
The step of detecting the face includes:
Selecting a new sample stream from the newly received images in the stream for each particular period; And
Detecting a face in the new sample stream each time the new sample stream is selected;
And displaying the image.
상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응하는 영상 표시 방법.The method according to claim 1,
Wherein the image processing corresponds to an operation of applying a blurring effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.
상기 제1 단말이 상기 복수의 영상 각각에 안면이 존재하는지 여부를 판단하는 단계;
안면이 존재하지 않는 영상에서 피부색을 검출하는 단계;
상기 피부색 검출 결과에 대응하여 상기 안면이 존재하지 않는 영상에 영상 처리를 수행하는 단계; 및
상기 제1 단말이 출력부를 통해 상기 영상 처리가 수행된 영상 스트림을 표시하는 단계;
를 포함하는 영상 표시 방법.Receiving a video stream including a plurality of consecutive video images from a second terminal in which a first terminal has established a video call session with the first terminal;
Determining whether a facial image exists in each of the plurality of images by the first terminal;
Detecting a skin color in an image in which the face does not exist;
Performing image processing on an image in which the face does not exist corresponding to the skin color detection result; And
Displaying the video stream on which the image processing is performed through the output unit of the first terminal;
And displaying the image.
상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응하는 영상 표시 방법.8. The method of claim 7,
Wherein the image processing corresponds to an operation of applying a blurring effect or a mosaic effect, or adjusting an hue, brightness, contrast, or saturation.
상기 스트림에 포함된 상기 복수의 영상을 표시하는 출력부; 및
상기 스트림에 포함된 상기 복수의 영상 중에서 선택된 적어도 하나 이상의 샘플 영상 각각에서 안면을 검출하는 제어부;
를 포함하고,
상기 제어부는 상기 샘플 영상 중에서 적어도 일부의 샘플 영상에서 상기 안면이 검출되지 않는 경우, 상기 스트림에 포함된 상기 복수의 영상 중에서 적어도 하나 이상의 영상에 영상 처리를 수행하고,
상기 출력부는 상기 영상 처리가 수행된 상기 적어도 하나 이상의 영상을 표시하는 영상 표시 장치.A communication unit for receiving a stream including a plurality of images taken by the first terminal from a first terminal;
An output unit displaying the plurality of images included in the stream; And
A controller for detecting a face in each of at least one or more sample images selected from the plurality of images included in the stream;
Lt; / RTI >
Wherein the control unit performs image processing on at least one or more images among the plurality of images included in the stream when the face is not detected in at least some sample images among the sample images,
Wherein the output unit displays the at least one image subjected to the image processing.
상기 제어부는 상기 안면이 검출되지 않은 샘플 영상에서 피부색이 검출되는 경우 상기 피부색이 검출된 영역에 상기 영상 처리를 수행하는 영상 표시 장치.11. The method of claim 10,
Wherein the control unit performs the image processing on a region where the skin color is detected when a skin color is detected from a sample image in which the face is not detected.
상기 영상 처리는 블러 효과 또는 모자이크 효과를 적용하거나, 색상, 명도, 대비 또는 채도를 조절하는 동작에 대응하는 영상 표시 장치.11. The method of claim 10,
Wherein the image processing corresponds to an operation of applying a blur effect or a mosaic effect or adjusting a hue, brightness, contrast or saturation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180134869A KR101967651B1 (en) | 2018-11-06 | 2018-11-06 | Image displaying method, apparatus and computer readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180134869A KR101967651B1 (en) | 2018-11-06 | 2018-11-06 | Image displaying method, apparatus and computer readable recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160130656A Division KR20180039402A (en) | 2016-10-10 | 2016-10-10 | Device and method of displaying images |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180123998A true KR20180123998A (en) | 2018-11-20 |
KR101967651B1 KR101967651B1 (en) | 2019-04-29 |
Family
ID=64568607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180134869A KR101967651B1 (en) | 2018-11-06 | 2018-11-06 | Image displaying method, apparatus and computer readable recording medium |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101967651B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100844334B1 (en) * | 2007-06-07 | 2008-07-08 | 엘지전자 주식회사 | Apparatus and method for controlling display in mobile communication terminal |
KR20080110064A (en) * | 2007-06-14 | 2008-12-18 | 유성준 | Method for distinguishing obscene image and apparatus therefor |
US20090049467A1 (en) * | 2002-07-02 | 2009-02-19 | Caption Tv, Inc. | System, method and computer program product for selective filtering of objectionable content from a program |
KR20120090870A (en) * | 2012-05-09 | 2012-08-17 | 김명훈 | Image security apparatus and image security system using face detect algorithm and image security method thereof |
KR20120126677A (en) * | 2011-05-12 | 2012-11-21 | 재단법인 서울호서직업전문학교 | Method and apparatus for automatically detecting pornographic image, and computer readable medium thereof |
KR20140012474A (en) * | 2012-07-20 | 2014-02-03 | 한국전자통신연구원 | Apparatus and method for protecting privacy based on face recognition |
-
2018
- 2018-11-06 KR KR1020180134869A patent/KR101967651B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090049467A1 (en) * | 2002-07-02 | 2009-02-19 | Caption Tv, Inc. | System, method and computer program product for selective filtering of objectionable content from a program |
KR100844334B1 (en) * | 2007-06-07 | 2008-07-08 | 엘지전자 주식회사 | Apparatus and method for controlling display in mobile communication terminal |
KR20080110064A (en) * | 2007-06-14 | 2008-12-18 | 유성준 | Method for distinguishing obscene image and apparatus therefor |
KR20120126677A (en) * | 2011-05-12 | 2012-11-21 | 재단법인 서울호서직업전문학교 | Method and apparatus for automatically detecting pornographic image, and computer readable medium thereof |
KR20120090870A (en) * | 2012-05-09 | 2012-08-17 | 김명훈 | Image security apparatus and image security system using face detect algorithm and image security method thereof |
KR20140012474A (en) * | 2012-07-20 | 2014-02-03 | 한국전자통신연구원 | Apparatus and method for protecting privacy based on face recognition |
Also Published As
Publication number | Publication date |
---|---|
KR101967651B1 (en) | 2019-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20180039402A (en) | Device and method of displaying images | |
KR101989842B1 (en) | Terminal and image processing method thereof | |
KR102311603B1 (en) | Mobile and operating method thereof | |
US9792602B2 (en) | Apparatus and method for providing emotion expression service in mobile communication terminal | |
US11570401B2 (en) | Digital zoom conferencing | |
KR101967658B1 (en) | Device and method of making video calls | |
CN105635625B (en) | Video call method and device | |
US11553157B2 (en) | Device and method of displaying images | |
JP5282329B2 (en) | Communication device for processing human-related picture and video stream | |
CN106210797B (en) | Network live broadcast method and device | |
JP2017531973A (en) | Movie recording method and apparatus, program, and storage medium | |
KR20190007934A (en) | Communication device, server and method of operation thereof | |
KR20190050198A (en) | Electronic apparatus and communication method thereof | |
CN106992953A (en) | System information acquisition method and device | |
JP4475579B2 (en) | Video communication apparatus and video communication apparatus control method | |
KR101172268B1 (en) | Method and System for providing service to hide object during video call | |
KR101967651B1 (en) | Image displaying method, apparatus and computer readable recording medium | |
KR102051828B1 (en) | Method of making video communication and device of mediating video communication | |
CN110213531B (en) | Monitoring video processing method and device | |
CN110087014B (en) | Video completion method, terminal and computer-readable storage medium | |
KR20210001154A (en) | Mobile, server and operating method thereof | |
KR20210013923A (en) | Video Call Mediating Apparatus, Method and Computer Readable Recording Medium Thereof | |
JP2006140596A (en) | Communication terminal | |
CN106454128B (en) | Self-shooting bar adjusting method and device | |
CN114140558A (en) | Image data processing method, image data processing device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |