KR102239015B1 - Image alignment method and apparatus thereof - Google Patents

Image alignment method and apparatus thereof Download PDF

Info

Publication number
KR102239015B1
KR102239015B1 KR1020190045839A KR20190045839A KR102239015B1 KR 102239015 B1 KR102239015 B1 KR 102239015B1 KR 1020190045839 A KR1020190045839 A KR 1020190045839A KR 20190045839 A KR20190045839 A KR 20190045839A KR 102239015 B1 KR102239015 B1 KR 102239015B1
Authority
KR
South Korea
Prior art keywords
person
interest
image
alignment
image alignment
Prior art date
Application number
KR1020190045839A
Other languages
Korean (ko)
Other versions
KR20190044596A (en
Inventor
최종호
박성진
이동준
이지윤
Original Assignee
키튼플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 키튼플래닛 주식회사 filed Critical 키튼플래닛 주식회사
Priority to KR1020190045839A priority Critical patent/KR102239015B1/en
Publication of KR20190044596A publication Critical patent/KR20190044596A/en
Application granted granted Critical
Publication of KR102239015B1 publication Critical patent/KR102239015B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06K9/00268
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/21Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with binary alpha-plane coding for video objects, e.g. context-based arithmetic encoding [CAE]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

사용자 입력 없이 자동으로 영상 얼라인먼트를 수행한 방법이 제공된다. 영상 얼라인먼트 장치에 의해 수행되는 본 발명의 일 실시예에 따른 영상 얼라인먼트 방법은, 입력 영상에서 적어도 하나의 사람을 인식하는 단계, 상기 인식 된 사람 중 관심 사람을 결정하는 단계 및 상기 입력 영상에 대하여 상기 관심 사람을 기준으로 영상 얼라인먼트를 수행하되, 상기 영상 얼라인먼트를 위한 상기 영상 얼라인먼트 장치의 사용자의 입력 없이 상기 영상 얼라인먼트를 수행하는 단계를 포함할 수 있다.A method of automatically performing image alignment without user input is provided. An image alignment method according to an embodiment of the present invention performed by an image alignment device includes recognizing at least one person from an input image, determining a person of interest among the recognized people, and the input image Performing image alignment based on a person of interest, and performing the image alignment without a user input of the image alignment device for image alignment.

Description

영상 얼라인먼트 방법 및 그 장치{Image alignment method and apparatus thereof}TECHNICAL FIELD [0001] Image alignment method and apparatus thereof

본 발명은 영상 얼라인먼트 방법 및 장치에 관한 것이다. 보다 자세하게는, 입력 영상에서 인식된 적어도 하나의 사람 중에서 관심 사람을 결정하고, 상기 관심 사람을 기준으로 상기 입력 영상에 대한 자동 영상 얼라인먼트를 수행하는 방법 및 그 방법을 수행하는 장치에 관한 것이다.The present invention relates to an image alignment method and apparatus. In more detail, the present invention relates to a method of determining a person of interest among at least one person recognized in an input image, and performing automatic image alignment on the input image based on the person of interest, and an apparatus for performing the method.

영상 처리 기술이 고도화됨에 따라, 영상 처리 기술에 기반한 스마트 장치 또는 지능형 시스템이 다양한 분야에서 구축되고 활용되고 있다. 예를 들어, 영상 처리 기술을 활용하여 감시 영상에서 관심 객체를 검출하고, 각종 이벤트를 탐지하는 지능형 영상 감시 시스템이 구축되어 다양한 환경의 감시 분야에 활용되고 있다. 다른 예를 들어, 전면부에 부착된 카메라를 이용하여 주변 영상을 촬영하고, 촬영된 영상의 분석 결과에 기초하여 각종 콘텐츠를 제공하는 스마트 미러(smart mirror)가 다양한 장소에 설치되어 활용되고 있다.As image processing technology is advanced, smart devices or intelligent systems based on image processing technology are being built and used in various fields. For example, an intelligent video surveillance system that detects an object of interest in a surveillance image and detects various events using image processing technology has been constructed and is being used in the surveillance field of various environments. For another example, a smart mirror that photographs surrounding images using a camera attached to the front side and provides various contents based on an analysis result of the captured image is installed and used in various places.

상술한 스마트 장치 및 지능형 시스템이 공통적으로 내포하고 있는 문제점은 관심 객체 기준의 자동 얼라인먼트 기능이 제공되지 않는다는 것이다. 예를 들어, 지능형 영상 분석 시스템에서, 관리자가 관심 객체 기준으로 포커싱 된 감시 영상을 확인하기 위해서는 CCTV(closed circuit television)에 의해 촬영된 원본 영상에서 관심 객체를 지정하고, 지정된 관심 객체가 포함된 영상을 줌(zoom)하는 등 일련의 과정을 거쳐야한다. 상술한 일련의 과정은 관리자에 의해 직접 수행되어야 하기 때문에, 사용자의 편의성이 저하되고, 시스템이 효과적으로 활용될 수 없다. 다른 예를 들어, 스마트 미러에서, 전면에 복수의 사람이 위치한 경우, 스마트 미러는 복수의 사람 중에서 어느 한 사람을 관심 사람으로 결정하여 관련 콘텐츠를 제공하여야 한다. 이와 같은 경우, 복수의 사람이 촬영된 영상과 함께 관심 사람에 대한 콘텐츠를 제공하는 경우, 서비스를 제공받는 사용자의 만족도는 떨어질 수 밖에 없다.A problem common to the above-described smart devices and intelligent systems is that an automatic alignment function based on an object of interest is not provided. For example, in an intelligent image analysis system, in order for the administrator to check the surveillance image focused on the object of interest, an object of interest is designated from an original image captured by CCTV (closed circuit television), and an image containing the specified object of interest. You have to go through a series of processes, such as zooming. Since the above-described series of processes must be performed directly by the administrator, user convenience is deteriorated and the system cannot be effectively utilized. For another example, in a smart mirror, when a plurality of people are located in the front, the smart mirror must determine any one of the plurality of people as a person of interest and provide related content. In such a case, when a plurality of people provide content for a person of interest along with a captured image, the satisfaction level of the user who is provided with the service is inevitably lowered.

따라서, 상술한 문제점을 해결하기 위해서, 장치 및 시스템의 목적 등에 따라 결정된 다양한 기준을 고려하여, 입력 영상에서 관심 객체를 결정하고, 관심 객체 기준으로 자동 영상 얼라인먼트를 수행하는 방법이 요구된다.Accordingly, in order to solve the above-described problem, there is a need for a method of determining an object of interest from an input image and performing automatic image alignment based on the object of interest in consideration of various criteria determined according to the purpose of an apparatus and a system.

한국공개특허 제10-2007-0087085호 (2007.08.29 공개)Korean Patent Publication No. 10-2007-0087085 (published on August 29, 2007)

본 발명이 해결하고자 하는 기술적 과제는, 관심 객체 기준으로 입력 영상에 대한 자동 영상 얼라인먼트를 수행하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.The technical problem to be solved by the present invention is to provide a method for performing automatic image alignment on an input image based on an object of interest, and an apparatus for performing the method.

본 발명이 해결하고자 하는 다른 기술적 과제는, 입력 영상에 포함된 적어도 하나의 객체 중에서 관심 객체를 결정하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method of determining an object of interest among at least one object included in an input image and an apparatus for performing the method.

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 입력 영상에 포함된 적어도 하나의 사람 중에서 관심 사람을 결정하고, 상기 관심 사람을 위한 맞춤형 서비스 제공 화면을 구성하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method of determining a person of interest among at least one person included in an input image, and configuring a screen for providing a customized service for the person of interest, and an apparatus for performing the method. It is to do.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 영상 얼라인먼트 방법은, 영상 얼라인먼트 장치가, 입력 영상에서 적어도 하나의 사람을 인식하는 단계, 상기 영상 얼라인먼트 장치가, 상기 인식 된 사람 중 관심 사람을 결정하는 단계 및 상기 영상 얼라인먼트 장치가, 상기 입력 영상에 대하여 상기 관심 사람을 기준으로 영상 얼라인먼트를 수행하되, 상기 영상 얼라인먼트를 위한 상기 영상 얼라인먼트 장치의 사용자의 입력 없이 상기 영상 얼라인먼트를 수행하는 단계를 포함할 수 있다.In order to solve the above technical problem, an image alignment method according to an embodiment of the present invention includes, by an image alignment device, recognizing at least one person from an input image, and the image alignment device includes: Determining a person, and performing, by the image alignment apparatus, image alignment with respect to the input image based on the person of interest, but performing the image alignment without a user input of the image alignment device for the image alignment. It may include.

일 실시예에서, 상기 관심 사람을 결정하는 단계는, 상기 관심 사람을 결정하는 단계는, 상기 인식 된 사람 각각의 인구 통계학적 특성을 분석하는 단계 및 상기 분석된 인구 통계학적 특성을 이용하여, 상기 인식된 사람 중 기 지정된 인구 통계학적 정보에 부합하는 특성을 가진 관심 사람을 결정하는 단계를 포함할 수 있다.In one embodiment, determining the person of interest, determining the person of interest, analyzing the demographic characteristics of each of the recognized persons, and using the analyzed demographic characteristics, the It may include the step of determining a person of interest, among the recognized persons, having characteristics corresponding to predetermined demographic information.

일 실시예에서, 상기 인식 된 사람 각각에 대하여 얼굴 영역을 추출하는 단계 및 상기 인식된 사람 중 상기 추출된 얼굴 영역이 가장 큰 사람을 관심 사람으로 결정하는 단계를 포함할 수 있다.In an embodiment, the method may include extracting a face region for each of the recognized persons, and determining a person having the largest extracted face region among the recognized persons as a person of interest.

일 실시예에서, 상기 관심 사람을 결정하는 단계는, 상기 인식 된 사람 각각의 지정된 위치에서, 지정된 형상을 가진 객체를 감지하는 단계 및 제1 사람의 지정된 위치에서 상기 지정된 형상을 가진 객체가 감지된 경우, 상기 제1 사람을 상기 관심 사람으로 결정하는 단계를 포함할 수 있다.In one embodiment, the determining of the person of interest includes detecting an object having a designated shape at a designated location of each recognized person, and detecting an object having the designated shape at a designated location of the first person. In this case, it may include determining the first person as the person of interest.

일 실시예에서, 상기 관심 사람을 결정하는 단계는, 상기 인식 된 사람 각각의 입 주변 위치에서, 칫솔 형상을 가진 객체를 감지하는 단계 및 제1 사람의 입 주변 위치에서 상기 칫솔 형상을 가진 객체가 감지된 경우, 상기 제1 사람을 상기 관심 사람으로 결정하는 는 단계를 포함할 수 있다.In one embodiment, the determining of the person of interest includes detecting an object having a toothbrush shape at a position around the mouth of each recognized person, and detecting an object having a toothbrush shape at a position around the mouth of the first person When detected, determining the first person as the person of interest may be included.

일 실시예에서, 상기 관심 사람을 결정하는 단계는, 음성을 인식하는 단계 및 상기 인식 된 음성에 대응되는 텍스트가 제1 사람의 외곽선 내부 영역에서 감지된 경우, 상기 제1 사람을 상기 관심 사람으로 결정하는 단계를 포함할 수 있다.In one embodiment, the determining of the person of interest includes recognizing a voice and when a text corresponding to the recognized voice is detected in an area inside the outline of the first person, the first person is designated as the person of interest. It may include the step of determining.

일 실시예에서, 상기 관심 사람을 결정하는 단계는, 상기 인식 된 사람 각각에 대하여 상황 기반(context-based) 관심 사람 판정 로직을 통해, 현재 상황에 부합하는 관심 사람을 결정하는 단계를 포함할 수 있다.In one embodiment, determining the person of interest may include determining a person of interest corresponding to a current situation through a context-based person of interest determination logic for each of the recognized persons. have.

상술한 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 영상 얼라인먼트 장치는, 하나 이상의 프로세서, 네트워크 인터페이스, 상기 프로세서에 의하여 수행되는 컴퓨터 프로그램을 로드(Load)하는 메모리 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은, 입력 영상에서 적어도 하나의 사람을 인식하는 오퍼레이션, 상기 인식 된 사람 중 관심 사람을 결정하는 오퍼레이션 및 상기 입력 영상에 대하여 상기 관심 사람을 기준으로 영상 얼라인먼트를 수행하되, 상기 영상 얼라인먼트를 위한 상기 영상 얼라인먼트 장치의 사용자의 입력 없이 상기 영상 얼라인먼트를 수행하는 오퍼레이션을 포함할 수 있다.An image alignment apparatus according to another embodiment of the present invention for solving the above-described technical problem includes at least one processor, a network interface, a memory for loading a computer program executed by the processor, and a memory for storing the computer program. Including a storage, the computer program, an operation of recognizing at least one person from an input image, an operation of determining a person of interest among the recognized persons, and image alignment with respect to the input image based on the person of interest, And an operation of performing the image alignment without a user's input of the image alignment device for the image alignment.

상술한 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터 프로그램은, 컴퓨팅 장치와 결합하여, 입력 영상에서 적어도 하나의 사람을 인식하는 단계, 상기 인식 된 사람 중 관심 사람을 결정하는 단계 및 상기 입력 영상에 대하여 상기 관심 사람을 기준으로 영상 얼라인먼트를 수행하되, 상기 영상 얼라인먼트를 위한 사용자 입력 없이 상기 영상 얼라인먼트를 수행하는 단계를 실행시키기 위하여 기록매체에 저장될 수 있다.A computer program according to another embodiment of the present invention for solving the above-described technical problem, in combination with a computing device, recognizing at least one person from an input image, determining a person of interest among the recognized persons And performing image alignment with respect to the input image based on the person of interest, but may be stored in a recording medium to execute the step of performing the image alignment without a user input for the image alignment.

상술한 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 스마트 미러는, 입력 영상을 생성하는 전면 카메라 센서, 상기 입력 영상에서 적어도 하나의 사람을 인식하고, 상기 인식 된 사람 중 관심 사람을 결정하며, 상기 입력 영상에 대하여 상기 관심 사람을 기준으로 영상 얼라인먼트를 수행하되, 상기 영상 얼라인먼트를 위한 사용자 입력 없이 상기 영상 얼라인먼트를 수행하는 영상 얼라인먼트 프로세서 및 상기 영상 얼라인먼트가 수행된 결과 영상을 표시하는 디스플레이를 포함할 수 있다.A smart mirror according to another embodiment of the present invention for solving the above-described technical problem, a front camera sensor that generates an input image, recognizes at least one person from the input image, and selects a person of interest among the recognized people. An image alignment processor that performs image alignment with respect to the input image based on the person of interest, and performs the image alignment without a user input for the image alignment, and a display that displays a result image of the image alignment It may include.

상술한 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법은, 서비스 제공 장치가, 입력 영상에서 적어도 하나의 사람을 인식하는 단계, 상기 서비스 제공 장치가, 상기 인식 된 사람 중 관심 사람을 결정하는 단계 및 상기 서비스 제공 장치가, 상기 입력 영상에 대하여 상기 관심 사람을 대상으로 한 서비스 제공 화면을 구성하고 디스플레이 하되, 상기 서비스 제공 화면 구성을 위한 사용자 입력 없이 상기 서비스 제공 화면의 구성 및 디스플레이를 수행하는 단계를 포함할 수 있다.A method of configuring a user-targeted service providing screen according to another embodiment of the present invention for solving the above-described technical problem includes, by a service providing device, recognizing at least one person from an input image, and the service providing device , Determining a person of interest among the recognized persons, and the service providing device constructs and displays a service providing screen targeting the interested person with respect to the input image, but without a user input for configuring the service providing screen. It may include the step of configuring and displaying the service providing screen.

상술한 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법은, 서비스 제공 장치가, 입력 영상에서 적어도 하나의 사람을 인식하는 단계, 상기 서비스 제공 장치가, 상기 인식 된 사람의 생체 신호 센서로부터 생체 데이터를 수신하는 단계, 상기 서비스 제공 장치가, 상기 수신된 생체 데이터를 이용하여, 상기 인식 된 사람 중 관심 사람을 결정하는 단계 및 상기 서비스 제공 장치가, 상기 입력 영상에 대하여 상기 관심 사람을 대상으로 한 서비스 제공 화면을 구성하고 디스플레이 하되, 상기 서비스 제공 화면 구성을 위한 사용자 입력 없이 상기 서비스 제공 화면의 구성 및 디스플레이를 수행하는 단계를 포함할 수 있다.A method of configuring a user-targeted service providing screen according to another embodiment of the present invention for solving the above-described technical problem includes, by a service providing device, recognizing at least one person from an input image, and the service providing device , Receiving biometric data from a biometric signal sensor of the recognized person, determining, by the service providing device, a person of interest among the recognized person by using the received biometric data, and the service providing device, Configuring and displaying a service providing screen for the interested person with respect to the input image, and configuring and displaying the service providing screen without a user input for configuring the service providing screen.

상술한 본 발명에 따르면, 소정의 기준에 따라 입력 영상에서 인식된 적어도 하나의 사람 중에서 관심 사람이 결정되고, 상기 관심 사람은 기준으로 자동으로 영상 얼라인먼트가 수행될 수 있다. 상기와 같은 자동 영상 얼라인먼트는 다양한 분야에 활용되어 사용자의 몰입감 및 편의성이 향상될 수 있다.According to the present invention described above, a person of interest may be determined from among at least one person recognized in an input image according to a predetermined criterion, and image alignment may be automatically performed for the person of interest. The automatic image alignment as described above may be used in various fields to improve user immersion and convenience.

예를 들어, 스마트 미러에서 자동 영상 얼라인먼트가 수행되는 경우, 서비스를 제공받는 관심 사람의 몰입감이 향상될 수 있다. 다른 예를 들어, 지능형 영상 감시 시스템에서 자동 영상 얼라인먼트가 수행되는 경우, 통합 관제 장치를 통해 감시 영상을 확인하는 관리자의 편의성이 향상될 수 있다.For example, when automatic image alignment is performed in a smart mirror, the sense of immersion of a person of interest who is provided with a service may be improved. For another example, when automatic video alignment is performed in an intelligent video surveillance system, convenience of a manager who checks a surveillance video through an integrated control device may be improved.

또한, 상술한 본 발명에 따르면, 입력 영상에서 인식된 사람 중에서 인구 통계학적 특성 정보, 소지한 물체의 정보, 상황 정보 등을 고려하여 관심 사람이 결정될 수 있다. 이를 통해, 높은 정확도로 관심 사람이 결정될 수 있다.In addition, according to the present invention described above, a person of interest may be determined in consideration of demographic characteristic information, information on objects in possession, situation information, and the like among persons recognized in the input image. Through this, a person of interest can be determined with high accuracy.

상술한 본 발명에 따르면, 관심 사람을 대상으로 구성된 맞춤형 서비스 화면이 제공될 수 있다. 이에 따라, 서비스를 제공받는 사용자의 만족도가 향상될 수 있다.According to the present invention described above, a customized service screen configured for a person of interest may be provided. Accordingly, satisfaction of a user receiving a service may be improved.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 제1 실시예에 따른 영상 얼라인먼트 시스템의 구성도이다.
도 2a 및 도 2b는 본 발명의 몇몇 실시예에서 참조될 수 있는 영상 얼라인먼트의 예시도이다.
도 3은 상기 제1 실시예에 따른 영상 얼라인먼트 시스템의 일 구성 요소인 스마트 미러(200)를 나타내는 블록도이다.
도 4는 본 발명의 제2 실시예에 따른 영상 얼라인먼트 시스템의 구성도이다.
도 5a 및 도 5b는 본 발명의 몇몇 실시예에서 참조될 수 있는 영상 얼라인먼트의 예시도이다.
도 7은 본 발명의 실시예에 따른 영상 얼라인먼트 방법의 흐름도이다.
도 8 내지 도 14는 본 발명의 몇몇 실시예에 따른 관심 사람 결정 방법을 설명하기 위한 도면이다.
도 15 및 도 16은 본 발명의 몇몇 실시예에 따른 영상 얼라인먼트가 수행된 결과 영상의 디스플레이 방법을 설명하기 위한 도면이다.
도 17 내지 도 19b는 본 발명의 제1 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법을 설명하기 위한 도면이다.
도 20은 본 발명의 제2 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법을 설명하기 위한 도면이다.
1 is a block diagram of an image alignment system according to a first embodiment of the present invention.
2A and 2B are exemplary diagrams of image alignment that may be referred to in some embodiments of the present invention.
3 is a block diagram showing a smart mirror 200 that is a component of the image alignment system according to the first embodiment.
4 is a block diagram of an image alignment system according to a second embodiment of the present invention.
5A and 5B are exemplary diagrams of image alignment that may be referred to in some embodiments of the present invention.
7 is a flowchart of an image alignment method according to an embodiment of the present invention.
8 to 14 are diagrams for explaining a method of determining a person of interest according to some embodiments of the present invention.
15 and 16 are diagrams for explaining a method of displaying a result image after image alignment has been performed, according to some embodiments of the present invention.
17 to 19B are diagrams for explaining a method of configuring a user-targeted service providing screen according to the first embodiment of the present invention.
20 is a diagram for explaining a method of configuring a user-targeted service providing screen according to a second embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and are common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically. The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase.

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used in the specification, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in which the recited component, step, operation and/or element is Or does not preclude additions.

본 명세서에 대한 설명에 앞서, 본 명세서에서 사용되는 몇몇 용어들에 대하여 명확하게 하기로 한다.Prior to the description of the present specification, some terms used in the present specification will be clarified.

본 명세서에서, 영상 얼라인먼트(image alignment)란, 소정의 기준에 따라 제1 영상에 대하여 회전, 쉬프팅(shifting), 오토 포커싱(auto focusing), 줌(zoom), 크롭(crop), 아웃 포커싱(out focusing) 등의 영상 처리를 수행함으로써 제2 영상을 출력하는 것을 의미한다. 예를 들어, 상기 영상 얼라인먼트는 제1 영상에 포함된 적어도 하나의 사람 중에서 소정의 기준에 부합하는 관심 사람을 기준으로 상기 영상 처리를 수행하여 제2 영상을 출력하는 것을 의미할 수 있다. 이하에서는, 설명의 편의를 위해 상기 제1 영상은 "입력 영상"으로 명명하고, 상기 제2 영상은 "얼라인먼트 영상" 또는 "결과 영상"으로 명명하도록 한다.In the present specification, image alignment refers to rotation, shifting, auto focusing, zoom, crop, and out-of-focusing with respect to a first image according to a predetermined criterion. It means outputting a second image by performing image processing such as focusing). For example, the image alignment may mean outputting a second image by performing the image processing based on a person of interest meeting a predetermined criterion among at least one person included in the first image. Hereinafter, for convenience of description, the first image is referred to as "input image", and the second image is referred to as "alignment image" or "result image".

이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings.

먼저, 도 1 내지 도 3을 참조하여, 본 발명의 제1 실시예에 따른 영상 얼라인먼트 시스템에 대하여 설명하도록 한다.First, an image alignment system according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 3.

도 1은 본 발명의 제1 실시예에 따른 영상 얼라인먼트 시스템의 구성도이다. 구체적으로, 도 1은 상기 제1 실시예에 따른 영상 얼라인먼트 시스템으로 스마트 미러 시스템을 도시하고 있다.1 is a block diagram of an image alignment system according to a first embodiment of the present invention. Specifically, FIG. 1 shows a smart mirror system as an image alignment system according to the first embodiment.

도 1을 참조하면, 상기 스마트 미러 시스템은 스마트 미러(200) 및 서비스 제공 서버(300)를 포함하도록 구성될 수 있다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 1에 도시된 스마트 미러 시스템의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 적어도 하나의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 이하, 상기 스마트 미러 시스템의 각 구성 요소에 대하여 설명하도록 한다.Referring to FIG. 1, the smart mirror system may be configured to include a smart mirror 200 and a service providing server 300. However, this is only a preferred embodiment for achieving the object of the present invention, and of course, some components may be added or deleted as necessary. In addition, it should be noted that each of the components of the smart mirror system illustrated in FIG. 1 represents functional elements that are functionally divided, and at least one component may be implemented in a form in which they are integrated with each other in an actual physical environment. Hereinafter, each component of the smart mirror system will be described.

상기 스마트 미러 시스템에서, 스마트 미러(200)는 반투명 기능과 반사 기능을 갖는 하프 미러(half mirror)를 전면에 두고 그 후방에 디스플레이 패널을 배치한 컴퓨팅 장치로, 디스플레이 패널에서 영상이 출력될 시에는 하프 미러를 투과하여 영상이 외부에 표시되며 영상 출력이 없을 시에는 미러 기능을 제공하는 컴퓨팅 장치이다.In the smart mirror system, the smart mirror 200 is a computing device in which a half mirror having a translucent function and a reflective function is placed in front and a display panel is disposed at the rear thereof. When an image is output from the display panel It is a computing device that transmits an image through a half mirror and displays an image to the outside and provides a mirror function when there is no image output.

본 발명의 실시예에 따르면, 스마트 미러(200)는 전면에 부착된 카메라 센서를 통해 적어도 하나의 사람을 촬영하여 입력 영상을 생성하고, 상기 적어도 하나의 사람 중에서 관심 사람을 결정하며, 상기 관심 사람을 기준으로 상기 입력 영상에 대한 영상 얼라인먼트를 수행할 수 있다. 이와 같은 실시예에 한하여, 스마트 미러(200)는 "영상 얼라인먼트 장치"로 명명될 수 있다. 이하에서는, 이해의 편의를 제공하기 위해, 입력 영상에 포함된 사람 또는 사물이 복수인 것을 가정하여 설명하도록 한다. 다만, 본 발명의 범위가 이에 한정되는 것은 아니다. 즉, 입력 영상에 한 명의 제1 사람만이 등장하더라도 상기 제1 사람이 소정의 기준에 부합하는지 여부에 따라, 상기 제1 사람이 관심 사람인지 여부가 결정될 수 있다.According to an embodiment of the present invention, the smart mirror 200 generates an input image by photographing at least one person through a camera sensor attached to the front, determines a person of interest among the at least one person, and Image alignment may be performed on the input image based on. Only in such an embodiment, the smart mirror 200 may be referred to as “image alignment device”. Hereinafter, in order to provide convenience of understanding, it is assumed that there are a plurality of people or objects included in the input image. However, the scope of the present invention is not limited thereto. That is, even if only one first person appears in the input image, whether the first person is a person of interest may be determined according to whether the first person meets a predetermined criterion.

예를 들어, 도 2a 및 도 2b에 도시된 바와 같이, 스마트 미러(200)는 입력 영상(10a)에 포함된 복수의 사람 중에서 소정의 기준에 부합하는 관심 사람(11)을 결정하고, 관심 사람(11)을 기준으로 영상 얼라인먼트가 수행된 얼라인먼트 영상(10b)을 다양한 방식으로 디스플레이할 수 있다. 도 2b는 관심 사람(11)을 기준으로 크롭, 줌 등의 영상 처리가 수행된 것을 도시하고 있으나, 이는 영상 얼라인먼트의 일 예에 불과하며, 상기 영상 얼라인먼트는 회전, 쉬프팅, 아웃 포커싱 등 다양한 영상 처리 기법을 이용하여 수행될 수 있다. 본 실시예에 따르면, 관심 사람으로 결정된 사용자를 기준으로 포커싱 된 영상이 스마트 미러(200)를 통해 제공되므로, 사용자의 몰입감이 증대될 수 있다. 본 실시예에 대한 자세한 설명은 도 7 내지 도 16을 참조하여 후술하도록 한다.For example, as shown in FIGS. 2A and 2B, the smart mirror 200 determines a person of interest 11 meeting a predetermined criterion among a plurality of people included in the input image 10a, and The alignment image 10b on which the image alignment has been performed based on (11) may be displayed in various ways. 2B shows that image processing such as cropping and zooming is performed based on the person of interest 11, but this is only an example of image alignment, and the image alignment includes various image processing such as rotation, shifting, and out-focusing. It can be done using a technique. According to the present embodiment, since an image focused on the basis of the user determined as the person of interest is provided through the smart mirror 200, the user's sense of immersion can be increased. A detailed description of the present embodiment will be described later with reference to FIGS. 7 to 16.

본 발명의 실시예에 따르면, 스마트 미러(200)는 관심 사람으로 결정된 사용자를 대상으로 타게팅 된 서비스 제공 화면을 구성하여 디스플레이할 수 있다. 예를 들어, 관심 사람이 칫솔을 들고 양치질을 하는 어린이인 경우, 스마트 미러(200)는 양치질 가이드 콘텐츠를 제공하는 화면을 구성하여 디스플레이할 수 있다. 여기서, 상기 양치질 가이드 콘텐츠는 스마트 미러(200)에 기 저장된 콘텐츠 또는 서비스 제공 서버(300)로부터 수신된 콘텐츠일 수 있다. 이와 같은 실시예에 한하여, 스마트 미러(200)는 "서비스 제공 장치"로 명명될 수 있다. 본 실시예에 따르면, 사용자에게 커스터마이징된 서비스 화면이 제공되므로, 사용자의 서비스 만족도가 향상될 수 있다. 본 실시예에 대한 자세한 설명은 도 17 내지 도 20을 참조하여 후술하도록 한다.According to an embodiment of the present invention, the smart mirror 200 may configure and display a service providing screen targeted to a user determined as a person of interest. For example, if the person of interest is a child who brush teeth with a toothbrush, the smart mirror 200 may configure and display a screen that provides guide content for brushing teeth. Here, the brushing guide content may be content previously stored in the smart mirror 200 or content received from the service providing server 300. Only in such an embodiment, the smart mirror 200 may be referred to as a “service providing device”. According to the present embodiment, since a customized service screen is provided to the user, the user's service satisfaction may be improved. A detailed description of this embodiment will be described later with reference to FIGS. 17 to 20.

본 발명의 실시예에 따르면, 스마트 미러(200)는 입력 영상에 대한 영상 분석을 통해 다양한 메타데이터를 추출하고, 상기 메타데이터를 기초로 관심 사람을 결정할 수 있다. 이때, 상기 메타데이터는 예를 들어 입력 영상에서 검출된 사람의 인구통계학적 특성 정보, 사람이 소지한 물체의 정보, 상황 정보 등으로 다양할 수 있다. 실시예에 따라, 상기 영상 분석은 서비스 제공 서버(300)에 의해 수행되고, 스마트 미러(200)는 영상 분석의 결과로 추출된 메타데이터를 서비스 제공 서버(300)로부터 제공받는 방식으로 동작할 수도 있다. 본 실시예에 대한 자세한 설명은 도 8 내지 도 14를 참조하여 후술하도록 한다.According to an embodiment of the present invention, the smart mirror 200 may extract various metadata through image analysis of an input image, and determine a person of interest based on the metadata. In this case, the metadata may be various, for example, information on demographic characteristics of a person detected in an input image, information on an object possessed by a person, situation information, and the like. According to an embodiment, the image analysis is performed by the service providing server 300, and the smart mirror 200 may operate in a manner that receives metadata extracted as a result of the image analysis from the service providing server 300. have. A detailed description of the present embodiment will be described later with reference to FIGS. 8 to 14.

상기 스마트 미러 시스템에서, 서비스 제공 서버(300)는 스마트 미러(200) 기반으로 제공되는 각종 서비스의 제공을 지원하는 컴퓨팅 장치이다. 여기서, 상기 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능 및 통신 기능이 구비된 모든 종류의 장치를 포함할 수 있다.In the smart mirror system, the service providing server 300 is a computing device that supports provision of various services provided based on the smart mirror 200. Here, the computing device may be a notebook, a desktop, a laptop, etc., but is not limited thereto, and may include all types of devices equipped with a computing function and a communication function.

서비스 제공 서버(300)는 스마트 미러(200)로부터 수신된 입력 영상에 대한 영상 분석을 수행하거나, 관심 사람에 대한 맞춤형 콘텐츠를 제공할 수 있다. 예를 들어, 관심 사람이 칫솔을 들고 있는 어린이인 경우, 서비스 제공 서버(300)는 양치질 가이드 콘텐츠를 제공할 수 있다. 다른 예를 들어, 관심 사람이 미용 서비스를 제공 받는 여성인 경우, 서비스 제공 서버(300)는 다양한 헤어 스타일 콘텐츠를 스마트 미러(200)로 제공할 수 있다.The service providing server 300 may perform image analysis on an input image received from the smart mirror 200 or may provide customized content for a person of interest. For example, if the person of interest is a child holding a toothbrush, the service providing server 300 may provide toothbrushing guide content. For another example, when the person of interest is a woman receiving beauty services, the service providing server 300 may provide various hair style contents to the smart mirror 200.

도 1에 도시된 스마트 미러 시스템의 각 구성 요소는 네트워크를 통해 통신할 수 있다. 여기서, 상기 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Each component of the smart mirror system shown in FIG. 1 may communicate through a network. Here, the network is a local area network (LAN), a wide area network (WAN), a mobile radio communication network (mobile radio communication network), Wibro (Wireless Broadband Internet) of all types of wired / wireless networks, etc. Can be implemented.

이하에서는, 상기 스마트 미러 시스템의 일 구성 요소인 스마트 미러(200)의 구성 및 동작에 대하여 더 살펴보도록 한다.Hereinafter, the configuration and operation of the smart mirror 200, which is a component of the smart mirror system, will be further described.

도 3은 스마트 미러(200)를 나타내는 예시적인 블록도이다.3 is an exemplary block diagram illustrating the smart mirror 200.

도 3를 참조하면, 스마트 미러(200)는 센서부(210), 저장부(230), 통신부(250), 디스플레이부(270) 및 제어부(290)를 포함하도록 구성될 수 있다. 다만, 도 3에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 3, the smart mirror 200 may be configured to include a sensor unit 210, a storage unit 230, a communication unit 250, a display unit 270, and a control unit 290. However, only the components related to the embodiment of the present invention are shown in FIG. 3. Accordingly, those of ordinary skill in the art to which the present invention pertains can recognize that other general-purpose components may be further included in addition to the components illustrated in FIG. 3.

각 구성 요소를 살펴보면, 센서부(210)는 스마트 미러(200)의 전면부에 부착되고 주변 영상을 촬영하는 카메라 센서 및/또는 물체의 접근을 감지하는 근접 센서 등을 포함할 수 있다. 예를 들어, 상기 카메라 센서는 상기 근접 센서에 의해 소정의 물체의 접근이 감지된 경우에 한하여 영상을 촬영하도록 제어부(290)에 의해 제어될 수도 있다.Looking at each component, the sensor unit 210 may include a camera sensor attached to the front surface of the smart mirror 200 and photographing a surrounding image and/or a proximity sensor that detects the proximity of an object. For example, the camera sensor may be controlled by the controller 290 to capture an image only when the proximity of a predetermined object is detected by the proximity sensor.

저장부(230)는 스마트 미러(200)의 각종 동작을 수행하는 하나 이상의 컴퓨터 프로그램 등을 비임시적으로 저장할 수 있다. 저장부(230)는 ROM(Read Only Memory), PROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage unit 230 may non-temporarily store one or more computer programs that perform various operations of the smart mirror 200. The storage unit 230 is a nonvolatile memory such as a ROM (Read Only Memory), PROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), flash memory, etc., a hard disk, a removable disk, or in the technical field to which the present invention belongs. It may be configured to include any well-known computer-readable recording medium.

통신부(250)는 스마트 미러 시스템의 다른 구성 요소와 데이터 통신을 수행한다. 이를 위해, 통신부(250)는 유선 인터넷 모듈, 이동통신 모듈 또는 무선통신 모듈을 구비할 수 있다.The communication unit 250 performs data communication with other components of the smart mirror system. To this end, the communication unit 250 may include a wired Internet module, a mobile communication module, or a wireless communication module.

디스플레이부(270)는 관심 사람을 기준으로 영상 얼라인먼트가 수행된 결과 영상을 디스플레이한다. 또는, 디스플레이부(270)는 관심 사람을 대상으로 구성된 서비스 제공 화면을 디스플레이한다. 이를 위해, 디스플레이부(270)는 LCD 패널 등 당해 기술 분야에서 널리 알려진 디스플레이 모듈을 포함하도록 구성될 수 있다.The display unit 270 displays an image as a result of performing image alignment based on a person of interest. Alternatively, the display unit 270 displays a service providing screen configured for a person of interest. To this end, the display unit 270 may be configured to include a display module widely known in the art, such as an LCD panel.

또한, 디스플레이부(270)는 전면에 배치되어 외부로부터의 빛을 반사하여 물체의 모습을 비추는 거울 기능이 포함된 미러를 포함하도록 구성될 수 있다. 상기 미러는 상기 디스플레이 모듈로부터의 영상 신호를 투과하여 외부로 표출되도록 하는 영상 디스플레이 기능을 제공할 수도 있다. 예를 들어, 상기 미러는 하프 미러(half mirror)일 수 있다. 하프 미러는 디스플레이 모듈의 광원이 오프 되면 거울과 같은 반사 작용을 하게 되고, 광원이 온 되면 디스플레이 모듈의 영상을 투과시켜 외부에 디스플레이되도록 한다.In addition, the display unit 270 may be configured to include a mirror including a mirror function that is disposed on the front side and reflects light from the outside to illuminate the shape of an object. The mirror may provide an image display function that transmits an image signal from the display module to be exposed to the outside. For example, the mirror may be a half mirror. When the light source of the display module is turned off, the half mirror acts like a mirror, and when the light source is turned on, the image of the display module is transmitted to be displayed outside.

상기 디스플레이 모듈은 상기 미러와 같은 사이즈일 수 있으나, 미러의 일부 영역만을 통해 광이 투과되도록 미러보다 작은 사이즈를 가질 수도 있다. 후자의 경우, 미러는 미러 기능만을 제공하는 제 1 미러 영역과 미러 기능 또는 영상 디스플레이 기능을 제공하는 제 2 미러 영역으로 나뉠 수 있다.The display module may have the same size as the mirror, but may have a size smaller than the mirror so that light is transmitted through only a partial area of the mirror. In the latter case, the mirror may be divided into a first mirror area providing only a mirror function and a second mirror area providing a mirror function or an image display function.

제어부(290)는 스마트 미러(200)의 각 구성의 전반적인 동작을 제어한다. 제어부는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 제어부(290)는 후술할 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 어플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다.The controller 290 controls the overall operation of each component of the smart mirror 200. The control unit may include a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), or any type of processor well known in the art. In addition, the controller 290 may perform an operation on at least one application or program for executing the method according to embodiments of the present invention, which will be described later.

구체적으로, 제어부(290)는 입력 영상에서 관심 사람을 결정하고 상기 관심 사람 기준으로 영상 얼라인먼트를 수행하고 얼라인먼트 영상을 디스플레이하기 위해 본 발명의 실시예에 따른 영상 얼라인먼트 방법을 수행할 수 있다. 상기 영상 얼라인먼트 방법에 대한 자세한 설명은 도 7 내지 도 16을 참조하여 후술하도록 한다.Specifically, the controller 290 may perform an image alignment method according to an embodiment of the present invention to determine a person of interest from an input image, perform image alignment based on the person of interest, and display an alignment image. A detailed description of the image alignment method will be described later with reference to FIGS. 7 to 16.

제어부(290)는 입력 영상에서 관심 사람을 결정하고 상기 관심 사람 대상으로 서비스 제공 화면을 구성하기 위해 본 발명의 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법을 수행할 수 있다. 상기 서비스 제공 화면의 구성 방법에 대한 자세한 설명은 도 17 내지 도 20을 참조하여 후술하도록 한다.The controller 290 may perform a method of configuring a service providing screen targeted to a user according to an embodiment of the present invention in order to determine a person of interest from the input image and construct a service providing screen for the interested person. A detailed description of the method of configuring the service providing screen will be described later with reference to FIGS. 17 to 20.

도 3의 각 구성 요소는 소프트웨어(Software) 또는, FPGA(Field Programmable Gate Array)나 ASIC(Application-Specific Integrated Circuit)과 같은 하드웨어(Hardware)를 의미할 수 있다. 그렇지만, 상기 구성 요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(Addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성 요소들 안에서 제공되는 기능은 더 세분화된 구성 요소에 의하여 구현될 수 있으며, 복수의 구성 요소들을 합하여 특정한 기능을 수행하는 하나의 구성 요소로 구현될 수도 있다.Each component of FIG. 3 may mean software or hardware such as a Field Programmable Gate Array (FPGA) or an Application-Specific Integrated Circuit (ASIC). However, the components are not limited to software or hardware, and may be configured to be in an addressable storage medium, or may be configured to execute one or more processors. The functions provided in the components may be implemented by more subdivided components, or may be implemented as one component that performs a specific function by combining a plurality of components.

지금까지 도 1 내지 도 3을 참조하여 본 발명의 제1 실시예에 따른 영상 얼라인먼트 시스템인 스마트 미러 시스템에 대하여 설명하였다. 다음으로, 도 4 내지 도 6을 참조하여, 본 발명의 제2 실시예에 따른 영상 얼라인먼트 시스템에 대하여 설명하도록 한다.So far, a smart mirror system, which is an image alignment system according to a first embodiment of the present invention, has been described with reference to FIGS. 1 to 3. Next, an image alignment system according to a second embodiment of the present invention will be described with reference to FIGS. 4 to 6.

도 4는 본 발명의 제2 실시예에 따른 영상 얼라인먼트 시스템의 구성도이다. 구체적으로, 도 4는 상기 제2 실시예에 따른 영상 얼라인먼트 시스템으로 지능형 영상 감시 시스템을 도시하고 있다.4 is a block diagram of an image alignment system according to a second embodiment of the present invention. Specifically, FIG. 4 shows an intelligent video surveillance system as the video alignment system according to the second embodiment.

도 4를 참조하면, 상기 지능형 영상 감시 시스템은 복수의 영상 촬영 장치(400a 내지 400n), 지능형 영상 분석 장치(500) 및 영상 얼라인먼트 장치(600)를 포함하도록 구성될 수 있다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 4에 도시된 지능형 영상 감시 시스템의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 적어도 하나의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 이하, 상기 지능형 영상 감시 시스템의 각 구성 요소에 대하여 설명하도록 한다.Referring to FIG. 4, the intelligent image monitoring system may be configured to include a plurality of image capturing devices 400a to 400n, an intelligent image analysis device 500 and an image alignment device 600. However, this is only a preferred embodiment for achieving the object of the present invention, and of course, some components may be added or deleted as necessary. In addition, it should be noted that each of the components of the intelligent video surveillance system shown in FIG. 4 represents functional elements that are functionally divided, and at least one component may be implemented in a form in which they are integrated with each other in an actual physical environment. Hereinafter, each component of the intelligent video surveillance system will be described.

상기 지능형 영상 감시 시스템에서, 영상 촬영 장치(400a 내지 400n)는 지정된 감시 지역을 촬영하여 감시 영상을 생성하는 장치이다. 영상 촬영 장치(400a 내지 400n)는 생성된 감시 영상을 지능형 영상 분석 장치(500)로 전송한다. 영상 촬영 장치(400a 내지 400n)는 예를 들어 CCTV로 구현될 수 있으나, 이에 국한되는 것은 아니다.In the intelligent video surveillance system, the video capture devices 400a to 400n are devices that capture a designated surveillance area and generate a surveillance image. The image capturing devices 400a to 400n transmit the generated surveillance image to the intelligent image analysis device 500. The image capturing apparatuses 400a to 400n may be implemented as, for example, CCTV, but are not limited thereto.

상기 지능형 영상 감시 시스템에서, 지능형 영상 분석 장치(500)는 영상 촬영 장치(400a 내지 400n)에 의해 제공된 감시 영상을 기초로 지능형 영상 분석을 수행한다. 예를 들어, 지능형 영상 분석 장치(500)는 상기 감시 영상의 분석을 통해 관심 객체를 검출하고, 상기 관심 객체의 인식, 추적 등을 수행할 수 있다.In the intelligent video surveillance system, the intelligent video analysis device 500 performs intelligent video analysis based on the surveillance images provided by the video capture devices 400a to 400n. For example, the intelligent image analysis apparatus 500 may detect an object of interest through analysis of the surveillance image, and perform recognition and tracking of the object of interest.

또한, 지능형 영상 분석 장치(500)는 상기 관심 객체의 검출, 인식, 추적 등의 과정을 통해 관리자에 의해 설정된 다양한 이벤트를 탐지할 수 있다. 예를 들어, 지능형 영상 분석 장치(500)는 교통 법규 위반, 수배자 인식, 미아 인식 등의 다양한 이벤트를 탐지할 수 있다.In addition, the intelligent image analysis apparatus 500 may detect various events set by an administrator through processes such as detection, recognition, and tracking of the object of interest. For example, the intelligent image analysis apparatus 500 may detect various events such as violation of traffic laws, recognition of wanted persons, recognition of lost children, and the like.

상기 지능형 영상 감시 시스템에서, 영상 얼라인먼트 장치(600)는 영상 촬영 장치(400a 내지 400n)에 의해 제공된 감시 영상을 입력 영상으로 하여 영상 얼라인먼트를 수행하고 디스플레이하는 컴퓨팅 장치이다. 여기서, 상기 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능 및 통신 기능이 구비된 모든 종류의 장치를 포함할 수 있다.In the intelligent video surveillance system, the image alignment device 600 is a computing device that performs image alignment and displays a surveillance image provided by the image capturing devices 400a to 400n as an input image. Here, the computing device may be a notebook, a desktop, a laptop, etc., but is not limited thereto, and may include all types of devices equipped with a computing function and a communication function.

상기 지능형 영상 감시 시스템에서, 영상 얼라인먼트 장치(600)는 통합 관제 장치로 구현될 수 있다. 이와 같은 경우, 영상 얼라인먼트 장치(600)는 탐지 대상 이벤트를 설정하는 사용자 인터페이스, 지능형 영상 분석 장치(500)에 의해 분석된 결과 및 영상 촬영 장치(400a 내지 400n)에 의해 획득된 감시 영상 등을 관리자에게 제공할 수 있다.In the intelligent video surveillance system, the video alignment device 600 may be implemented as an integrated control device. In this case, the image alignment device 600 manages a user interface for setting a detection target event, a result analyzed by the intelligent image analysis device 500, and a surveillance image acquired by the image capturing devices 400a to 400n. Can be provided to.

본 발명의 실시예에 따르면, 영상 얼라인먼트 장치(600)는 감시 영상에서 인식된 적어도 하나의 사람 중에서 관심 사람을 결정하고, 상기 관심 사람을 기준으로 상기 감시 영상에 대한 영상 얼라인먼트를 수행할 수 있다.According to an embodiment of the present invention, the image alignment apparatus 600 may determine a person of interest from among at least one person recognized in the surveillance image, and perform image alignment on the surveillance image based on the person of interest.

예를 들어, 도 5a 및 도 5b에 도시된 바와 같이, 영상 얼라인먼트 장치(600)는 감시 영상(20a)에 포함된 복수의 사람 중에서 소정의 기준에 부합하는 관심 사람(21, 23)을 결정하고, 관심 사람(21, 23)을 기준으로 영상 얼라인먼트가 수행된 영상(20b)을 디스플레이할 수 있다. 특히, 도 5a는 유아 납치 사고가 빈번하게 발생하는 감시 지역에서 유아 주변에 일정 시간 이상 성인 남성이 나타나는 조건이 탐지 대상 이벤트로 설정된 경우, 상기 조건이 만족되는 유아(23) 및 성인 남성(21)이 관심 사람으로 결정되는 예를 도시하고 있다. 또한, 도 5b는 관심 사람으로 결정된 유아(23) 및 성인 남성(21)을 기준으로 영상 얼라인먼트가 수행된 얼라인먼트 영상(20b)이 감시 영상(20a)과 함께 분할된 영역 각각에 디스플레이되는 예시를 도시하고 있다. 이와 같이, 영상 얼라인먼트 장치(600)는 특정 상황을 기준으로 관심 사람을 결정하고, 얼라인먼트 영상을 자동으로 생성할 수 있다.For example, as shown in FIGS. 5A and 5B, the image alignment device 600 determines a person of interest 21, 23 meeting a predetermined criterion among a plurality of people included in the surveillance image 20a, and , An image 20b on which image alignment has been performed based on the interested person 21 and 23 may be displayed. In particular, FIG. 5A shows an infant 23 and an adult male 21 satisfying the above condition when a condition in which an adult male appears around an infant for a certain time or longer is set as a detection target event in a surveillance area where infant kidnapping accidents frequently occur. An example is shown in which the person of interest is determined. In addition, FIG. 5B shows an example in which an alignment image 20b, in which image alignment has been performed, based on an infant 23 and an adult male 21 determined as a person of interest, is displayed in each divided area together with the surveillance image 20a. I'm doing it. In this way, the image alignment apparatus 600 may determine a person of interest based on a specific situation and automatically generate an alignment image.

영상 얼라인먼트 장치(600)가 영상 얼라인먼트를 수행하는 방법 및 얼라인먼트 영상을 디스플레이하는 방법에 대한 자세한 설명은 도 7 내지 도 16을 참조하여 후술하도록 한다.A detailed description of a method of performing image alignment by the image alignment apparatus 600 and a method of displaying an alignment image will be described later with reference to FIGS. 7 to 16.

도 4에 도시된 지능형 영상 감시 시스템의 각 구성 요소는 네트워크를 통해 통신할 수 있다. 여기서, 상기 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Each component of the intelligent video surveillance system shown in FIG. 4 may communicate through a network. Here, the network is a local area network (LAN), a wide area network (WAN), a mobile radio communication network (mobile radio communication network), Wibro (Wireless Broadband Internet) of all types of wired / wireless networks, etc. Can be implemented.

이하에서는, 도 6을 참조하여, 상기 지능형 영상 감시 시스템의 일 구성 요소인 영상 얼라인먼트 장치(600)의 구성 및 동작에 대하여 설명하도록 한다.Hereinafter, the configuration and operation of the image alignment device 600, which is a component of the intelligent video surveillance system, will be described with reference to FIG. 6.

도 6은 영상 얼라인먼트 장치(600)의 하드웨어 구성도이다.6 is a hardware configuration diagram of the image alignment apparatus 600.

도 6을 참조하면, 영상 얼라인먼트 장치(600)는 하나 이상의 프로세서(610), 버스(630), 네트워크 인터페이스(640), 디스플레이(650), 프로세서(610)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(620)와, 영상 얼라인먼트 소프트웨어(661)를 저장하는 스토리지(660)를 포함할 수 있다. 다만, 도 6에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 6에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 6, the image alignment apparatus 600 loads a computer program executed by one or more processors 610, bus 630, network interface 640, display 650, and processor 610. ) And a storage 660 for storing the image alignment software 661. However, only the components related to the embodiment of the present invention are shown in FIG. 6. Accordingly, those of ordinary skill in the art to which the present invention pertains can recognize that other general-purpose components may be further included in addition to the components shown in FIG. 6.

프로세서(610)는 영상 얼라인먼트 장치(600)의 각 구성의 전반적인 동작을 제어한다. 프로세서(610)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(610)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 영상 얼라인먼트 장치(600)는 하나 이상의 프로세서를 구비할 수 있다.The processor 610 controls the overall operation of each component of the image alignment device 600. The processor 610 includes a CPU (Central Processing Unit), MPU (Micro Processor Unit), MCU (Micro Controller Unit), GPU (Graphic Processing Unit), or any type of processor well known in the technical field of the present invention. Can be. Also, the processor 610 may perform an operation on at least one application or program for executing the method according to the embodiments of the present invention. The image alignment apparatus 600 may include one or more processors.

메모리(620)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(620)는 본 발명의 실시예들에 따른 영상 얼라인먼트 방법을 실행하기 위하여 스토리지(660)로부터 하나 이상의 프로그램(661)을 로드할 수 있다. 도 6에서 메모리(620)의 예시로 RAM이 도시되었다.The memory 620 stores various types of data, commands, and/or information. The memory 620 may load one or more programs 661 from the storage 660 in order to execute the image alignment method according to embodiments of the present invention. In FIG. 6, a RAM is illustrated as an example of the memory 620.

버스(630)는 영상 얼라인먼트 장치(600)의 구성 요소 간 통신 기능을 제공한다. 버스(630)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 630 provides a communication function between components of the image alignment apparatus 600. The bus 630 may be implemented as various types of buses such as an address bus, a data bus, and a control bus.

네트워크 인터페이스(640)는 영상 얼라인먼트 장치(600)의 유무선 인터넷 통신을 지원한다. 또한, 네트워크 인터페이스(640)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 네트워크 인터페이스(640)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The network interface 640 supports wired/wireless Internet communication of the image alignment device 600. In addition, the network interface 640 may support various communication methods other than Internet communication. To this end, the network interface 640 may be configured to include a communication module well known in the art.

스토리지(660)는 상기 하나 이상의 프로그램(661)을 비임시적으로 저장할 수 있다. 도 6에서 상기 하나 이상의 프로그램(661)의 예시로 영상 얼라인먼트 소프트웨어(661)가 도시되었다.The storage 660 may non-temporarily store the one or more programs 661. In FIG. 6, an image alignment software 661 is shown as an example of the one or more programs 661.

스토리지(660)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 660 is a nonvolatile memory such as a ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), flash memory, etc., a hard disk, a removable disk, or well in the technical field to which the present invention pertains. It may be configured to include any known computer-readable recording medium.

영상 얼라인먼트 소프트웨어(661)는 본 발명의 실시예에 따른 영상 얼라인먼트 방법을 실행할 수 있다. 예를 들어, 영상 얼라인먼트 소프트웨어(661)는 메모리(620)에 로드되어, 하나 이상의 프로세서(610)에 의해, 입력 영상에서 적어도 하나의 사람을 인식하는 오퍼레이션, 상기 인식 된 사람 중 관심 사람을 결정하는 오퍼레이션 및 상기 입력 영상에 대하여 상기 관심 사람을 기준으로 영상 얼라인먼트를 수행하되, 상기 영상 얼라인먼트를 위한 상기 영상 얼라인먼트 장치의 사용자의 입력 없이 상기 영상 얼라인먼트를 수행하는 오퍼레이션을 실행할 수 있다.The image alignment software 661 may execute an image alignment method according to an embodiment of the present invention. For example, the image alignment software 661 is loaded into the memory 620 and, by one or more processors 610, an operation for recognizing at least one person in the input image, and determining a person of interest among the recognized people. The image alignment may be performed with respect to the operation and the input image based on the person of interest, but the image alignment may be performed without a user's input for the image alignment.

참고로, 본 발명의 실시예에 따른 서비스 제공 장치의 하드웨어 구성 또한 도 6과 같은 구성으로 구현될 수 있다. 이와 같은 경우, 상기 서비스 제공 장치의 스토리지에 사용자 타게팅 된 서비스 제공 화면의 구성 방법을 실행하는 컴퓨터 프로그램이 저장될 수 있고, 상기 컴퓨터 프로그램이 메모리에 로드되어, 프로세서에 의해 실행될 수 있다.For reference, the hardware configuration of the apparatus for providing a service according to an embodiment of the present invention may also be implemented in the configuration shown in FIG. 6. In this case, a computer program for executing a method of configuring a service providing screen targeted to a user may be stored in the storage of the service providing device, and the computer program may be loaded into a memory and executed by a processor.

지금까지, 도 4 내지 도 6을 참조하여 본 발명의 제2 실시예에 따른 영상 얼라인먼트 시스템인 지능형 영상 감시 시스템에 대하여 설명하였다. 다음으로, 도 7 내지 도 16을 참조하여 본 발명의 실시예에 따른 영상 얼라인먼트 방법에 대하여 상세하게 설명한다.So far, an intelligent video surveillance system, which is an image alignment system according to a second embodiment of the present invention, has been described with reference to FIGS. 4 to 6. Next, an image alignment method according to an embodiment of the present invention will be described in detail with reference to FIGS. 7 to 16.

이하에서 후술할 본 발명의 실시예에 따른 영상 얼라인먼트 방법의 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 예를 들어, 상기 컴퓨팅 장치는 영상 얼라인먼트 장치(200, 600)일 수 있다. 다만, 설명의 편의를 위해, 상기 영상 얼라인먼트 방법에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다. 또한, 영상 얼라인먼트 방법의 각 단계는 영상 얼라인먼트 소프트웨어가 프로세서에 의해 실행됨으로써, 영상 얼라인먼트 장치(200, 600)에서 수행되는 오퍼레이션으로 구현될 수 있다.Each step of the image alignment method according to an embodiment of the present invention to be described below may be performed by a computing device. For example, the computing device may be an image alignment device 200 or 600. However, for convenience of explanation, the description of the operation subject of each step included in the image alignment method may be omitted. In addition, each step of the image alignment method may be implemented as an operation performed by the image alignment apparatuses 200 and 600 by executing image alignment software by a processor.

도 7은 본 발명의 실시예에 따른 영상 얼라인먼트 방법의 흐름도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 이하에서도, 이해의 편의를 제공하기 위해, 입력 영상에 포함된 사람은 복수인 것을 가정하여 설명하도록 한다. 다만, 전술한 바와 같이, 본 발명의 범위가 이에 한정되는 것은 아니다.7 is a flowchart of an image alignment method according to an embodiment of the present invention. However, this is only a preferred embodiment for achieving the object of the present invention, and of course, some steps may be added or deleted as necessary. Hereinafter, in order to provide convenience of understanding, it is assumed that there are a plurality of people included in the input image. However, as described above, the scope of the present invention is not limited thereto.

도 7을 참조하면, 먼저 입력 영상에서 복수의 사람이 인식된다(S110). 상기 복수의 사람을 인식하기 위해, 당해 기술 분야에서 널리 알려진 적어도 하나의 영상 처리 알고리즘 또는 영상 분석 알고리즘이 이용될 수 있다.Referring to FIG. 7, first, a plurality of people are recognized in an input image (S110). In order to recognize the plurality of people, at least one image processing algorithm or image analysis algorithm widely known in the art may be used.

다음으로, 상기 인식 된 복수의 사람 중 관심 사람이 결정된다(S130). 상기 관심 사람은 예를 들어 인식된 사람의 인구 통계학적 특성 정보, 인식된 사람이 소지한 물체 정보, 상황 정보 중 적어도 하나의 정보를 기준으로 결정될 수 있다. 본 단계(S130)에 대한 자세한 설명은 이후 도 8 내지 도 14를 참조하여 상세하게 설명하도록 한다.Next, an interested person is determined among the recognized plurality of people (S130). The interested person may be determined based on at least one of, for example, demographic characteristic information of the recognized person, object information possessed by the recognized person, and situation information. A detailed description of this step (S130) will be described in detail later with reference to FIGS. 8 to 14.

다음으로, 사용자의 입력 없이 관심 사람을 기준으로 영상 얼라인먼트가 수행된다(S150). 전술한 바와 같이, 상기 영상 얼라인먼트는 회전, 쉬프팅, 크롭, 줌 등 다양한 영상 처리 기법을 이용하여 수행될 수 있다.Next, image alignment is performed based on a person of interest without a user's input (S150). As described above, the image alignment may be performed using various image processing techniques such as rotation, shifting, cropping, and zoom.

다음으로, 영상 얼라인먼트가 수행된 결과 영상이 디스플레이된다(S170). 디스플레이되는 방식은 실시예에 따라 달라질 수 있다. 본 단계(S170)에 대한 자세한 설명은 도 15 및 도 16을 참조하여 상세하게 설명하도록 한다.Next, an image as a result of performing image alignment is displayed (S170). The display method may vary according to exemplary embodiments. A detailed description of this step (S170) will be described in detail with reference to FIGS. 15 and 16.

지금까지, 도 7을 참조하여, 본 발명의 실시예에 따른 영상 얼라인먼트 방법에 대하여 설명하였다. 상술한 방법에 따르면, 소정의 기준에 따라 관심 사람이 결정되고, 자동으로 관심 사람을 기준으로 영상 얼라인먼트가 수행된 결과 영상이 제공될 수 있다. 이에 따라, 영상을 제공받는 사용자의 몰입감이 증대되고, 사용자의 개입이 요구되지 않는 바 사용자의 편의성 또한 향상 될 수 있다.So far, an image alignment method according to an embodiment of the present invention has been described with reference to FIG. 7. According to the above-described method, an interested person may be determined according to a predetermined criterion, and an image may be provided as a result of automatically performing image alignment based on the interested person. Accordingly, the immersion of the user who is provided with the image is increased, and the user's convenience may also be improved since the user's intervention is not required.

이하에서는, 단계(S130)에서 수행되는 관심 사람 결정 방법에 대하여 도 8 내지 도 14를 참조하여 상세하게 설명하도록 한다.Hereinafter, a method of determining a person of interest performed in step S130 will be described in detail with reference to FIGS. 8 to 14.

일 실시예에서, 인식된 사람의 인구 통계학적 특성 정보를 기초로 관심 사람이 결정될 수 있다. 즉, 입력 영상에서 인식된 복수의 사람 중에서 기 지정된 인구 통계학적 정보에 부합하는 특성을 가진 사람이 관심 사람으로 결정될 수 있다. 이때. 인구 통계학적 특성 정보는 예를 들어 성별, 연령, 국적, 민족 등의 정보를 포함할 수 있다.In one embodiment, a person of interest may be determined based on demographic characteristic information of the recognized person. That is, from among a plurality of people recognized in the input image, a person having a characteristic corresponding to predetermined demographic information may be determined as a person of interest. At this time. The demographic characteristic information may include information such as sex, age, nationality, ethnicity, and the like.

이해의 편의를 제공하기 위해, 도 8을 참조하여 인구 통계학적 특성 정보를 기초로 관심 사람을 결정하는 구체적인 예에 대하여 설명하도록 한다.In order to provide convenience of understanding, a specific example of determining a person of interest based on demographic characteristic information will be described with reference to FIG. 8.

도 8을 참조하면, 인식된 복수의 사람 중에서 제1 사람의 나이를 분석한 결과, 상기 제1 사람의 나이가 기 지정된 부모 나이대에 매치(match)되는 나이로 결정되고(S131), 상기 인식된 복수의 사람 중에서 제2 사람의 나이를 분석한 결과, 상기 제2 사람의 나이가 기 지정된 아이 나이대에 매치되는 나이로 결정(S133)될 수 있다. 이와 같은 경우, 상기 제2 사람이 관심 사람으로 결정될 수 있다(S135). 즉, 입력 영상에 부모와 아이가 포함되는 경우, 상기 아이가 관심 사람으로 결정될 수 있다.Referring to FIG. 8, as a result of analyzing the age of a first person among a plurality of recognized people, the age of the first person is determined as an age that matches a predetermined parental age group (S131), and the recognized As a result of analyzing the age of the second person among a plurality of people, the age of the second person may be determined as an age matching a predetermined child age range (S133). In this case, the second person may be determined as a person of interest (S135). That is, when a parent and a child are included in the input image, the child may be determined as a person of interest.

일 실시예에서, 도 9a 및 도 9b에 도시된 바와 같이 얼굴 영역의 크기를 기초로 관심 사람이 결정될 수 있다. 구체적으로, 입력 영상(30a)에서 인식된 복수의 사람(31, 33, 35) 각각에 대하여 얼굴 영역(32, 34, 36)이 추출되고, 상기 인식된 복수의 사람(31, 33, 35) 중 추출된 얼굴 영역(32, 34, 36)의 크기가 가장 큰 사람(33)이 관심 사람으로 결정될 수 있다. 또한, 관심 사람(33)을 기준으로 영상 얼라인먼트가 수행된 결과 영상(30b)이 제공될 수 있다. 본 실시예에 따르면, 스마트 미러(200)에 가까이 위치한 사람이 관심 사람으로 결정되므로, 사람의 위치에 따라 순서대로 소정의 서비스가 제공되도록 스마트 미러(200)가 동작할 수 있다.In an embodiment, as shown in FIGS. 9A and 9B, a person of interest may be determined based on the size of the face area. Specifically, face regions 32, 34, 36 are extracted for each of the plurality of people 31, 33, and 35 recognized in the input image 30a, and the recognized plurality of people 31, 33, 35 The person 33 having the largest size of the extracted face regions 32, 34, 36 may be determined as the person of interest. In addition, an image 30b may be provided as a result of performing image alignment based on the person of interest 33. According to the present embodiment, since a person located close to the smart mirror 200 is determined as a person of interest, the smart mirror 200 may operate so that a predetermined service is provided in order according to the position of the person.

일 실시예에서, 인식된 복수의 사람 중 기 지정된 관심 물체를 소지한 사람이 관심 사람이 결정될 수 있다. 여기서, 상기 지정된 관심 물체는 예를 들어 사용자 단말, 스마트 칫솔, 칼이나 권총 등의 무기류 등 시스템의 목적에 따라 다양하게 지정될 수 있다. 구체적으로, 인식된 복수의 사람 중 각각의 지정된 위치에서 지정된 관심 물체의 형상을 가진 객체를 감지하고, 상기 인식된 복수의 사람 중에서 제1 사람의 지정된 위치에서 지정된 관심 물체의 형상을 가진 객체가 감지된 경우, 상기 제1 사람이 상기 관심 사람으로 결정될 수 있다. 이때, 상기 지정된 관심 물체가 칫솔 형상의 객체인 경우, 상기 지정된 위치는 사람의 손 끝에 대응되는 위치일 수 있다.In an embodiment, a person of interest may be determined from among a plurality of recognized persons who have a predetermined object of interest. Here, the designated object of interest may be variously designated according to the purpose of the system, such as a user terminal, a smart toothbrush, and weapons such as a knife or a pistol. Specifically, an object having a shape of a designated object of interest is detected at each designated location among a plurality of recognized people, and an object having a shape of a designated object of interest at a designated location of a first person is detected among the recognized plurality of people. If so, the first person may be determined as the person of interest. In this case, when the designated object of interest is a toothbrush-shaped object, the designated position may be a position corresponding to the tip of a person's hand.

이해의 편의를 제공하기 위해, 도 10a 및 도 10b를 참조하여 부연 설명하도록 한다. 지정된 관심 물체가 칫솔 또는 스마트 칫솔인 경우, 입력 영상(40a)에서 인식된 복수의 사람(41, 43)의 손 끝에서 칫솔 형상의 객체가 감지되는지 판정된다. 판정 결과, 제1 사람(43)의 손 끝에서 칫솔 형상의 객체 (44)가 감지된 경우, 도 10b에 도시된 바와 같이, 제1 사람(43)을 기준으로 영상 얼라인먼트가 수행된 결과 영상(40b)이 제공된다.In order to provide convenience of understanding, it will be further described with reference to FIGS. 10A and 10B. When the designated object of interest is a toothbrush or a smart toothbrush, it is determined whether a toothbrush-shaped object is detected at the fingertips of the plurality of people 41 and 43 recognized in the input image 40a. As a result of the determination, when the toothbrush-shaped object 44 is detected at the fingertip of the first person 43, as shown in FIG. 10B, the result image of performing image alignment based on the first person 43 ( 40b) is provided.

상술한 실시예에서, 지정된 관심 물체를 소지한 사람이 복수 명 존재하는 경우가 있을 수 있다. 이와 같은 경우, 다양한 기준에 따라 적어도 한 명의 사람이 관심 사람으로 결정될 수 있다.In the above-described embodiment, there may be a case where there are a plurality of people who have a designated object of interest. In this case, at least one person may be determined as the person of interest according to various criteria.

예를 들어, 얼굴 영역의 크기를 기초로 가까운 거리에 위치한 적어도 한 명의 사람이 관심 사람으로 결정될 수 있다.For example, at least one person located at a close distance may be determined as the person of interest based on the size of the face area.

다른 예를 들어, 입력 영상에 진입한 순서에 기초하여 관심 사람으로 결정될 수 있다. 구체적으로, 제1 사람의 지정된 위치에서 지정된 관심 물체의 형상을 가진 객체가 감지되고, 제2 사람의 지정된 위치에서도 상기 지정된 관심 물체의 형상을 가진 객체가 감지된 경우, 상기 제1 사람과 상기 제2 사람 중, 상기 입력 영상에 먼저 진입한 사람이 상기 관심 사람으로 결정될 수 있다. 물론, 진입 순서에 따라 복수의 사람이 관심 사람으로 결정될 수도 있다.For another example, the person of interest may be determined based on the order in which the input image is entered. Specifically, when an object having the shape of the designated object of interest is detected at a designated location of the first person, and an object having the shape of the designated object of interest is detected at the designated location of the second person, the first person and the first person Among 2 people, a person who first enters the input image may be determined as the person of interest. Of course, a plurality of people may be determined as interested people according to the order of entry.

또 다른 예를 들어, 지정된 관심 물체를 소지한 복수의 사람 중에서 기 지정된 방향에 위치한 사람이 관심 사람으로 결정될 수 있다. 구체적으로, 제1 사람의 지정된 위치에서 지정된 관심 물체의 형상을 가진 객체가 감지되고, 제2 사람의 지정된 위치에서도 상기 지정된 관심 물체의 형상을 가진 객체가 감지된 경우, 상기 제1 사람과 상기 제2 사람 중, 기 지정된 방향에 위치하는 사람이 상기 관심 사람으로 결정될 수 있다. 본 예에 따르면, 유치원의 세면대에 스마트 미러가 설치되고, 복수의 유치원생이 오른쪽에서 입장하여 양치질 가이드 콘텐츠에 따라 양치질을 하고 왼쪽으로 퇴장하는 경우, 입장 순서에 따라 순서대로 영상 얼라인먼트에 기반한 양치질 가이드 서비스가 제공될 수 있다.For another example, a person located in a predetermined direction among a plurality of people holding a designated object of interest may be determined as the person of interest. Specifically, when an object having the shape of the designated object of interest is detected at a designated location of the first person, and an object having the shape of the designated object of interest is detected at the designated location of the second person, the first person and the first person Among the 2 people, a person located in a predetermined direction may be determined as the person of interest. According to this example, when a smart mirror is installed in the wash basin of a kindergarten, and a plurality of kindergarten students enter from the right, brush their teeth according to the brushing guide content, and exit to the left, a brushing guide service based on image alignment in order according to the entrance order. Can be provided.

일 실시예에서, 지정된 관심 물체를 소지한 복수의 사람 중에서 상기 관심 물체가 지정된 위치에서 감지된 사람이 관심 사람으로 결정될 수 있다. 여기서, 상기 지정된 위치는 관심 물체의 종류에 따라 달라질 수 있다. 이해의 편의를 제공하기 위해, 상기 관심 물체가 스마트 칫솔인 경우를 예를 들어 도 11을 참조하여 부연 설명한다.In an exemplary embodiment, a person of interest, among a plurality of persons holding a designated object of interest, may be determined as a person of interest. Here, the designated position may vary according to the type of the object of interest. In order to provide convenience of understanding, a case where the object of interest is a smart toothbrush will be further described with reference to FIG. 11, for example.

도 11을 참조하면, 스마트 칫솔(52, 54, 56)이 손 끝에서 감지된 복수의 아동(51, 53, 55) 중에서 상기 스마트 칫솔이 입 주변에서 감지된 아동(53)이 관심 사람으로 결정될 수 있다. 이를 통해, 스마트 미러(200)를 통해 양치 가이드 서비스를 제공받는 아동 중에서, 먼저 칫솔질을 시작한 아동에게 자동으로 영상 얼라인먼트가 수행된 결과 영상 및 양치 가이드 콘텐츠가 제공되도록 스마트 미러(200)가 동작할 수 있다.Referring to FIG. 11, among a plurality of children 51, 53, 55 detected by the smart toothbrush 52, 54, 56 at the fingertips, the child 53 detected by the smart toothbrush around the mouth will be determined as a person of interest. I can. Through this, the smart mirror 200 can be operated so that the image and tooth brushing guide contents are provided as a result of automatically performing image alignment to the child who first started brushing among children who are provided with a brushing guide service through the smart mirror 200. have.

몇몇 실시예에서, 도 12에 도시된 바와 같이 입력 영상에 포함된 음성 또는 별도의 음성 센서를 통해 감지된 음성 신호(61)에 대한 음성 인식을 수행하고, 상기 음성 인식을 통해 도출된 텍스트(63)를 이용하여 관심 사람이 결정될 수 있다. 이하, 음성 인식에 기초한 몇몇 실시예에 대하여 설명한다.In some embodiments, as shown in FIG. 12, voice recognition is performed on a voice included in an input image or a voice signal 61 sensed through a separate voice sensor, and the text 63 derived through the voice recognition is performed. ) Can be used to determine the person of interest. Hereinafter, some embodiments based on speech recognition will be described.

일 실시예에서, 인식된 음성에 대응되는 텍스트가 제1 사람의 외곽선 내부 영역에서 감지된 경우, 상기 제1 사람이 관심 사람으로 결정될 수 있다. 도 13을 참조하여, 선생님이 명찰을 단 복수의 아동 중 제1 아동을 호명하는 경우를 예를 들어 부연 설명하도록 한다. 도 13을 참조하면, 제1 아동을 호명하는 음성 신호를 인식하여 상기 제1 아동의 이름을 가리키는 텍스트가 획득되면, 입력 영상(70)에 포함된 복수의 사람의 외곽선 내부 영역(71, 73, 75)에서 상기 획득된 텍스트가 감지되는지 판정될 수 있다. 상기 복수의 사람 중에서 제1 아동의 외곽선 내부 영역(73)에서 상기 획득된 텍스트와 동일한 텍스트(74)가 인식되는 경우, 상기 제1 아동이 관심 사람으로 결정될 수 있다. 이에 따라, 복수의 아동 중에서 호명된 이름의 명찰을 단 아동을 기준으로 영상 얼라인먼트된 결과 영상이 제공될 수 있다.In an embodiment, when a text corresponding to the recognized voice is detected in an area inside the outline of the first person, the first person may be determined as a person of interest. With reference to FIG. 13, a case where a teacher calls a first child among a plurality of children with a name tag will be described further by way of example. Referring to FIG. 13, when text indicating the name of the first child is obtained by recognizing a voice signal calling for a first child, the inner areas 71 and 73 of the plurality of people included in the input image 70 At 75), it may be determined whether the acquired text is detected. When the text 74 identical to the acquired text is recognized in the area 73 inside the outline of the first child among the plurality of people, the first child may be determined as a person of interest. Accordingly, a result of image alignment based on a child wearing a name tag with a called name among a plurality of children may be provided.

일 실시예에서, 인식된 음성에 대응되는 텍스트가 제1 사람의 이름인 경우, 인식된 복수의 사람 각각에 대하여 얼굴 인식이 수행되고, 상기 얼굴 인식 결과를 기초로 상기 인식된 복수의 사람 중에서 상기 제1 사람이 관심 사람으로 결정될 수 있다. 구체적으로, 음성 인식을 통해 제1 사람의 이름이 텍스트로 획득된 경우, 사람의 이름 정보 및 얼굴 이미지를 포함하는 기 구축된 얼굴 DB를 이용하여 인식된 복수의 사람 각각에 대한 얼굴 인식이 수행된다. 그러면, 상기 인식된 복수의 사람 중에서, 상기 제1 사람의 이름에 대응되는 얼굴이 인식된 사람이 관심 사람으로 결정된다. 본 실시예에 따르면, 이름이 호명된 특정 사람 기준으로 영상 얼라인먼트가 수행되고 이는 다양한 경우에 활용될 수 있다. 예를 들어, 감시 지역 내에서 미아 아동의 부모가 해당 아동의 이름을 부르며 찾는 경우, 각 감시 영상 중에 해당 아동이 포함된 영상에 대한 영상 얼라인먼트가 자동으로 수행될 수 있는 바 미아 아동 찾기 서비스에 활용될 수 있다. 다른 예를 들어, 경찰이 감시 지역 내에서 수배자의 이름을 부르며 추적하는 경우, 각 감시 영상 중에 해당 수배자가 포함된 영상에 대한 영상 얼라인먼트가 자동으로 수행될 수 있는 바 수배자 검거 서비스에 활용될 수도 있다.In one embodiment, when the text corresponding to the recognized voice is the name of the first person, face recognition is performed on each of the plurality of recognized persons, and the recognized plurality of persons among the plurality of recognized persons based on the face recognition result The first person can be determined as the person of interest. Specifically, when the first person's name is acquired as text through speech recognition, face recognition is performed for each of a plurality of people recognized using a pre-built face DB including the person's name information and a face image. . Then, a person whose face corresponding to the name of the first person is recognized among the plurality of recognized persons is determined as the person of interest. According to the present embodiment, image alignment is performed based on a specific person whose name is called, and this can be utilized in various cases. For example, if the parents of a missing child in the surveillance area search for the child by calling the child's name, it is used for a missing child search service that can automatically align the video for the video that includes the child in each surveillance video. Can be. For another example, when the police trace the wanted person by calling the name of the wanted person within the surveillance area, video alignment can be automatically performed on the video including the wanted person among each surveillance video, so it may be used for the wanted person arrest service. .

몇몇 실시예에서, 인식된 복수의 사람 각각에 대하여 상황 기반(context-based) 관심 사람 판정 로직을 통해, 현재 상황에 부합하는 관심 사람이 결정될 수 있다. 여기서, 상기 상황 기반 관심 사람 판정 로직에 이용되는 상황 정보는 날씨, 시간, 장소, 인구 통계학적 특성의 조합을 포함할 수 있다.In some embodiments, a person of interest corresponding to a current situation may be determined through a context-based person of interest determination logic for each of a plurality of recognized persons. Here, the context information used in the context-based interest determination logic may include a combination of weather, time, place, and demographic characteristics.

일 실시예에서, 인식된 복수의 사람 각각의 인구 통계학적 특성의 조합에 기반하여 상황을 판정하고, 상기 판정된 상황에 따른 조건에 부합하는 사람이 관심 사람으로 결정될 수 있다. 예를 들어, 도 14에 도시된 바와 같이, 인식된 복수의 사람(81, 83, 85) 중에서 40대 남자와 30대 여자의 조합으로 구성된 사람(83, 85)이 관심 사람으로 결정될 수 있다. 또는, 부모와 자식, 남자와 남자, 남자와 여자 등의 다양한 조합에 따른 조건에 부합하는 사람이 관심 사람으로 결정될 수 있다.In an embodiment, a situation may be determined based on a combination of demographic characteristics of each of a plurality of recognized people, and a person meeting conditions according to the determined situation may be determined as a person of interest. For example, as shown in FIG. 14, among a plurality of recognized people 81, 83, and 85, a person 83, 85 composed of a combination of a man in his 40s and a woman in his 30s may be determined as a person of interest. Alternatively, a person who meets conditions according to various combinations of parents and children, men and men, and men and women may be determined as the interested person.

지금까지, 도 8 내지 도 14를 참조하여 본 발명의 몇몇 실시예에 참조될 수 있는 관심 사람 결정 방법에 대하여 설명하였다. 이하에서는, 단계(S170)에서 관심 사람을 기준으로 영상 얼라인먼트가 수행된 결과 영상을 디스플레이하는 방법에 대하여 설명하도록 한다.Until now, a method of determining a person of interest that can be referred to in some embodiments of the present invention has been described with reference to FIGS. 8 to 14. Hereinafter, a method of displaying an image as a result of performing image alignment based on a person of interest in step S170 will be described.

일 실시예에서, 관심 사람 또는 상기 관심 사람 중에서 지정된 조건을 만족하는 사람에 대한 하이라이트 처리가 수행된 영상이 디스플레이될 수 있다. 여기서, 상기 하이라이트 처리는 예를 들어 바운딩 박스(bounding box) 처리, 주변은 흑백인 상태에서 관심 사람에 대한 컬러 처리 등 관심 사람이 두드러지도록 처리되는 모든 영상 처리 기법을 포함할 수 있다. 보다 구체적인 예를 들어, 스마트 미러(200)를 통해 양치질 가이드 서비스를 제공하는 경우, 양치질을 수행 중인 제1 아동은 컬러로 처리되고, 양치질을 시작하지 않은 아동은 흑백으로 처리된 결과 영상이 제공될 수 있다.In an embodiment, an image in which a highlight process has been performed for a person of interest or a person who satisfies a specified condition among the persons of interest may be displayed. Here, the highlight processing may include all image processing techniques that are processed so that a person of interest stands out, such as a bounding box processing and a color processing for a person of interest while the surrounding is black and white. For a more specific example, when the brushing guide service is provided through the smart mirror 200, the first child who is performing brushing teeth is processed in color, and the child who has not started brushing teeth is processed in black and white, and the resulting image will be provided. I can.

일 실시예에서, 관심 사람에 대한 소정의 부가 정보가 더 디스플레이될 수 있다. 예를 들어, 관심 사람으로부터 지정된 조건에 부합하는 행동이 감지되면, 상기 행동이 수행되는 기간의 정보가 관심 사람 주변에 표시될 수 있다. 보다 구체적인 예를 들어, 아동이 양치질을 하는 시간, 납치범으로 의심되는 사람이 유아 주변에 서성이는 시간 등의 정보가 해당 사람 주변에 표시될 수 있다. 이외에도, 관심 사람의 인구 통계학적 특성 정보 등 다양한 정보가 상기 관심 사람 주변에 더 디스플레이될 수 있다.In one embodiment, predetermined additional information about a person of interest may be further displayed. For example, when an action meeting a specified condition is detected from a person of interest, information about a period in which the action is performed may be displayed around the person of interest. For a more specific example, information such as a time when a child brush his teeth, and a time when a person suspected of a kidnapping lingers around an infant may be displayed around the person. In addition, various information such as demographic characteristic information of the interested person may be further displayed around the interested person.

일 실시예에서, 관심 사람이 복수로 결정된 경우, 제1 관심 사람 기준으로 영상 얼라인먼트가 수행된 제1 결과 영상이 제1 영역에 디스플레이되고, 제2 관심 사람 기준으로 영상 얼라인먼트가 수행된 제2 결과 영상이 제2 영역에 디스플레이될 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 양치질을 하고 있는 복수의 아동(91, 93, 95)이 관심 사람으로 결정된 경우, 각각의 아동(91, 93, 95)을 기준으로 영상 얼라인먼트가 수행되고, 각각의 결과 영상이 분할된 영역(90a, 90b, 90c)에 디스플레이될 수 있다.In one embodiment, when a plurality of persons of interest are determined, a first result of image alignment performed based on a first interested person is displayed in the first area, and a second result of image alignment performed based on a second interested person An image may be displayed in the second area. For example, as shown in FIG. 15, when a plurality of children 91, 93, and 95 brushing teeth are determined to be interested persons, image alignment is performed based on each child (91, 93, 95) Then, each result image may be displayed in the divided regions 90a, 90b, and 90c.

전술한 실시예에서, 소정의 점수 또는 우선순위에 따라 분할된 영역의 크기는 동적으로 조정될 수 있다. 예를 들어, 도 16에 도시된 바와 같이, 복수의 아동(101, 103, 105)이 양치질을 수행하는 경우, 각 아동의 양치 점수를 기준으로 분할된 영역(100a, 100b, 100c)의 크기가 조정될 수 있다. 특히, 도 16은 양치질 점수의 순위가 제2 아동(63)이 가장 높고, 다음으로 제1 아동(61) 및 제3 아동(65) 순서인 경우를 예로써 도시하고 있다. 여기서, 상기 양치질 점수는 예를 들어 각 아동(101, 103, 105)이 사용하는 스마트 칫솔로부터 수신된 정보, 양치질 가이드 콘텐츠가 제공되는 경우 상기 양치질 가이드 콘텐츠에 맞게 양치질을 수행하는지를 가리키는 영상 분석 정보(e.g. 콘텐츠 영상과 촬영 영상의 부합 정도를 기초로 산출), 양치질 수행 시간 등을 기초로 다양한 방식으로 산출될 수 있다. 본 예에 따르면, 아동의 경쟁 심리를 자극함으로써 아동들에게 올바른 양치질을 유도하는 효과가 발생될 수 있다.In the above-described embodiment, the size of the divided area may be dynamically adjusted according to a predetermined score or priority. For example, as shown in FIG. 16, when a plurality of children 101, 103, and 105 brush their teeth, the size of the divided regions 100a, 100b, and 100c based on the brushing score of each child is Can be adjusted. In particular, FIG. 16 shows as an example a case in which the second child 63 is the highest in the order of tooth brushing scores, followed by the first child 61 and the third child 65. Here, the brushing score is, for example, information received from a smart toothbrush used by each child (101, 103, 105), image analysis information indicating whether or not to brush teeth according to the brushing guide content when the guide content is provided ( eg Calculated based on the degree of correspondence between the content image and the captured image), it may be calculated in various ways based on the brushing time. According to this example, the effect of inducing correct brushing of teeth to children may be generated by stimulating the competitive psychology of children.

지금까지, 도 7 내지 도 16을 참조하여, 본 발명의 실시예에 따른 영상 얼라인먼트 방법에 대하여 설명하였다. 다음으로, 도 17 내지 도 20을 참조하여, 본 발명의 몇몇 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법에 대하여 설명하도록 한다.So far, an image alignment method according to an embodiment of the present invention has been described with reference to FIGS. 7 to 16. Next, a method of configuring a user-targeted service providing screen according to some embodiments of the present invention will be described with reference to FIGS. 17 to 20.

이하에서 후술할 상기 서비스 제공 화면의 구성 방법은 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 예를 들어, 상기 컴퓨팅 장치는 서비스 제공 장치일 수 있다. 다만, 설명의 편의를 위해, 상기 서비스 제공 화면의 구성 방법에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다. 또한, 상기 서비스 제공 화면의 구성 방법의 각 단계는 사용자 타게팅 된 서비스 제공 화면의 구성 소프트웨어가 프로세서에 의해 실행됨으로써, 서비스 제공 장치에서 수행되는 오퍼레이션일 수 있다.In the method of configuring the service providing screen to be described later, each step may be performed by a computing device. For example, the computing device may be a service providing device. However, for convenience of explanation, the description of the operation subject of each step included in the method of configuring the service providing screen may be omitted. In addition, each step of the method for configuring the service providing screen may be an operation performed in the service providing device by executing the configuration software of the service providing screen targeted to the user by the processor.

먼저, 도 17 내지 도 19b를 참조하여 본 발명의 제1 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법에 대하여 설명하도록 한다.First, a method of configuring a user-targeted service providing screen according to a first embodiment of the present invention will be described with reference to FIGS. 17 to 19B.

도 17은 상기 제1 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법에 대한 흐름도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 이하에서도, 이해의 편의를 제공하기 위해, 입력 영상에 포함된 사람은 복수인 것을 가정하여 설명하도록 한다. 단, 전술한 바와 같이, 본 발명의 범위가 이에 국한되는 것은 아니다.17 is a flowchart illustrating a method of configuring a service providing screen targeted to a user according to the first embodiment. However, this is only a preferred embodiment for achieving the object of the present invention, and of course, some steps may be added or deleted as necessary. Hereinafter, in order to provide convenience of understanding, it is assumed that there are a plurality of people included in the input image. However, as described above, the scope of the present invention is not limited thereto.

도 17을 참조하면, 입력 영상에서 복수의 사람이 인식되고(S210), 인식된 복수의 사람 중에서 관심 사람이 결정된다(S230). 단계(S210, S230)는 전술한 단계(S110, S130)와 동일한 바 중복된 설명을 배제하기 위해 생략하도록 한다.Referring to FIG. 17, a plurality of people are recognized in an input image (S210), and a person of interest is determined from among the recognized plurality of people (S230). Steps (S210, S230) are the same as the above-described steps (S110, S130) to be omitted in order to exclude redundant description.

다음으로, 사용자 입력 없이 관심 사람을 대상으로 한 서비스 제공 화면이 구성되고 디스플레이된다(S250). 예를 들어, 상기 관심 사람이 스마트 칫솔을 소지한 아동인 경우, 양치질 가이드 서비스를 제공하기 위해 양치질 가이드 콘텐츠가 디스플레이될 수 있다.Next, a screen for providing a service targeting a person of interest is constructed and displayed without a user input (S250). For example, if the person of interest is a child with a smart toothbrush, toothbrushing guide content may be displayed to provide a toothbrushing guide service.

일 실시예에서, 도 18a에 도시된 바와 같이 서비스 제공 화면이 구성될 수 있다. 구체적으로, 관심 사람(111, 113, 115)이 복수인 경우, 각 분할 영역(110a, 110b, 110c)에 관심 사람을 기준으로 영상 얼라인먼트가 수행된 결과 영상이 디스플레이되고, 각 관심 사람에 대한 콘텐츠가 각 분할 영역(110a, 110b, 110c) 내의 일부 영역(112, 114, 116)에 디스플레이되도록 서비스 제공 화면이 구성될 수 있다. 실시예에 따라, 상기 결과 영상은 디스플레이되지 않고, 각 콘텐츠가 각 분할 영역(110a, 110b, 110c)에 디스플레이될 수도 있다.In an embodiment, a service provision screen may be configured as shown in FIG. 18A. Specifically, when there are a plurality of interested persons 111, 113, 115, an image is displayed as a result of image alignment based on the interested person in each divided area 110a, 110b, 110c, and content for each interested person A service providing screen may be configured such that is displayed on some areas 112, 114, and 116 in each of the divided areas 110a, 110b, and 110c. Depending on the embodiment, the resulting image is not displayed, and each content may be displayed in each of the divided regions 110a, 110b, and 110c.

일 실시예에서, 도 18b에 도시된 바와 같이, 복수의 관심 사람(111, 113, 115)에게 공통된 콘텐츠가 제공되는 경우, 신규 분할 영역(110d)에 상기 공통된 콘텐츠가 디스플레이될 수 있다. 도 18b에서 신규 분할 영역(110d)은 하단에 위치한 것이 예로써 도시되었으나, 신규 분할 영역(110d)의 크기 및 위치는 콘텐츠의 해상도 등에 따라 얼마든지 변경될 수 있다.In an embodiment, as illustrated in FIG. 18B, when common content is provided to a plurality of interested persons 111, 113, and 115, the common content may be displayed in a new divided area 110d. In FIG. 18B, the new divided area 110d is shown as an example located at the bottom, but the size and position of the new divided area 110d may be changed as much as possible according to the resolution of the content.

한편, 본 발명의 실시예에 따르면, 관심 사람의 사용자 단말로부터 수신된 데이터를 이용하여 서비스 제공 화면을 구성될 수도 있다. 보다 자세하게는, 사용자 단말 또는 지정된 물체의 형상을 가진 객체가 감지된 사람이 관심 사람으로 결정된 경우, 기 구축된 얼굴 DB 또는 식별 정보 DB를 통해 상기 관심 사람의 식별 정보(e.g. ID, 이름 등)가 획득될 수 있다. 그러면, 상기 식별 정보를 이용하여 상기 관심 사람이 보유한 상기 사용자 단말에 대한 정보가 조회되고, 상기 사용자 단말에 대한 정보를 이용하여, 상기 사용자 단말로부터 소정의 콘텐츠를 수신하여 서비스 제공 화면이 구성될 수 있다. 이때, 상기 식별 정보와 대응되는 사용자 단말의 정보는 기 저장된 정보일 수 있다. 보다 이해의 편의를 제공하기 위해, 도 19a 및 도 19b를 참조하여 본 실시예에 대하여 부연 설명하도록 한다.Meanwhile, according to an embodiment of the present invention, a service providing screen may be configured using data received from a user terminal of a person of interest. In more detail, when the user terminal or the person whose object having the shape of the specified object is detected is determined as the person of interest, the identification information (eg ID, name, etc.) of the person of interest is provided through a previously established face DB or identification information DB. Can be obtained. Then, information on the user terminal held by the interested person is inquired using the identification information, and a service provision screen can be constructed by receiving predetermined content from the user terminal using the information on the user terminal. have. In this case, the information on the user terminal corresponding to the identification information may be pre-stored information. In order to provide a more convenient understanding, the present embodiment will be further described with reference to FIGS. 19A and 19B.

도 19a 및 도 19b는 발표자가 관심 사람으로 결정되고, 발표자의 단말로부터 수신된 발표 콘텐츠가 서비스 제공 장치를 통해 디스플레이되는 예를 도시하고 있다. 이하, 도 19a 및 도 19b를 참조하여 설명하도록 한다.19A and 19B illustrate an example in which a speaker is determined as a person of interest, and presentation content received from a terminal of the speaker is displayed through a service providing apparatus. Hereinafter, it will be described with reference to FIGS. 19A and 19B.

서비스 제공 장치가 발표 장소에 설치된 컴퓨팅 장치라고 가정하면, 상기 서비스 제공 장치는 입력 영상(120a)에서 인식된 복수의 사람 중에서 손 끝에서 포인터 형상의 물체(122)가 감지된 사람(121)을 관심 사람으로 결정할 수 있다.Assuming that the service providing device is a computing device installed at the presentation place, the service providing device is interested in the person 121 whose pointer-shaped object 122 is detected at the tip of a hand among a plurality of people recognized in the input image 120a. It can be decided by a person.

관심 사람이 결정되면, 도 19b에 도시된 바와 같이, 상기 서비스 제공 장치는 관심 사람(121)을 기준으로 영상 얼라인먼트가 수행된 결과 영상(120b)를 생성하여 화면 상의 제1 영역에 디스플레이하고, 관심 사람(121)이 소지한 사용자 단말(130)로부터 수신된 발표 콘텐츠(123)를 상기 화면 상의 제2 영역에 디스플레이할 수 있다. 도 19b는 각각 독립적으로 분할된 영역에 결과 영상(120b) 및 콘텐츠(123)가 디스플레이되는 것을 예로써 도시하였으나, 전술한 바와 같이 서비스 화면의 레이아웃, 디스플레이 방식 등은 얼마든지 달라질 수 있다.When a person of interest is determined, as shown in FIG. 19B, the service providing device generates an image 120b as a result of performing image alignment based on the person of interest 121 and displays it in a first area on the screen. The presentation content 123 received from the user terminal 130 possessed by the person 121 may be displayed in the second area on the screen. 19B illustrates an example in which the result image 120b and the content 123 are displayed in each independently divided area, but as described above, the layout of the service screen, the display method, and the like may vary.

도 19a 및 도 19b를 참조하여 설명한 예에 따르면, 자동으로 발표자가 관심 사람으로 결정되고, 상기 발표자가 프레젠테이션(presentation)을 진행할 수 있도록 맞춤형 서비스 화면이 자동으로 구성될 수 있다. 이에 따라, 사용자의 편의성이 크게 향상될 수 있다.According to the example described with reference to FIGS. 19A and 19B, the presenter is automatically determined as a person of interest, and a customized service screen may be automatically configured so that the presenter can proceed with the presentation. Accordingly, user convenience can be greatly improved.

지금까지, 도 17 내지 도 19b를 참조하여 본 발명의 제1 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법에 대하여 설명하였다. 이하에서는, 도 20을 참조하여 본 발명의 제2 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법에 대하여 설명하도록 한다.So far, a method of configuring a user-targeted service providing screen according to the first embodiment of the present invention has been described with reference to FIGS. 17 to 19B. Hereinafter, a method of configuring a user-targeted service providing screen according to a second embodiment of the present invention will be described with reference to FIG. 20.

도 20은 상기 제2 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법에 대한 흐름도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.20 is a flowchart illustrating a method of configuring a user-targeted service providing screen according to the second embodiment. However, this is only a preferred embodiment for achieving the object of the present invention, and of course, some steps may be added or deleted as necessary.

도 20을 참조하면, 입력 영상에서 복수의 사람이 인식된다(S310).Referring to FIG. 20, a plurality of people are recognized in an input image (S310).

다음으로, 인식된 복수의 사람의 생체 신호 센서로부터 생체 데이터를 수신한다(S330). 여기서, 상기 생체 신호 센서는 예를 들어 사용자의 신체에 부착된 생체 신호 센서, 웨어러블 디바이스(wearable device) 및/또는 사용자 단말에 부착된 생체 신호 센서 등을 포함할 수 있다. 또한, 상기 생체 데이터는 심장 박동수, 혈압, 산소 포화도, 스트레스 지수, 양치된 정도 등을 포함할 수 있다.Next, biometric data is received from the recognized biometric signal sensors of a plurality of people (S330). Here, the biosignal sensor may include, for example, a biosignal sensor attached to a user's body, a wearable device, and/or a biosignal sensor attached to a user terminal. In addition, the biometric data may include heart rate, blood pressure, oxygen saturation, stress index, brushing degree, and the like.

다음으로, 수신된 생체 데이터를 이용하여, 상기 인식 된 복수의 사람 중 관심 사람이 결정된다(S350). 예를 들어, 혈압이 높은 사람, 양치가 잘 되지 않은 사람, 심장 박동수가 높은 사람 등 생체 데이터가 정상 범주에 있지 않은 사람이 관심 사람으로 결정될 수 있다.Next, a person of interest is determined from among the plurality of recognized persons using the received biometric data (S350). For example, a person whose biometric data is not in the normal category, such as a person with high blood pressure, a person who does not brush teeth well, and a person with a high heart rate, may be determined as a person of interest.

일 실시예에서, 상기 관심 사람을 결정하기 위해 인식된 복수의 사람의 영상 분석 결과가 더 이용될 수 있다. 예를 들어, 건강에 이상이 있는 사람을 관심 사람으로 결정하는 경우, 얼굴의 혈류량 정보, 표정 정보(e.g. 찡그린 표정) 등의 분석 정보를 영상 분석을 통해 도출하고, 상기 도출된 정보를 더 이용하여 보다 정확하게 관심 사람이 결정될 수 있다.In an embodiment, an image analysis result of a plurality of recognized people may be further used to determine the person of interest. For example, in the case of determining a person with an abnormality in health as a person of interest, analysis information such as blood flow information on the face and facial expression information (eg frowned expression) is derived through image analysis, and the derived information is further used. More precisely, the person of interest can be determined.

다음으로, 사용자 입력 없이 관심 사람을 대상으로 한 서비스 제공 화면이 구성되고 디스플레이된다(S370). 예를 들어, 건강에 이상이 있는 사람이 관심 사람으로 결정된 경우, 운동 콘텐츠, 특정 질병에 대한 콘텐츠 등이 제공될 수 있다. 또는, 양치가 잘 되지 않은 사람이 관심 사람으로 결정된 경우, 양치질 가이드 콘텐츠가 제공될 수 있다.Next, a screen for providing a service targeting a person of interest is constructed and displayed without a user input (S370). For example, when a person having an abnormality in health is determined as a person of interest, exercise content, content for a specific disease, and the like may be provided. Alternatively, when a person who does not brush teeth well is determined as a person of interest, guide content for brushing teeth may be provided.

지금까지, 도 20을 참조하여 본 발명의 제2 실시예에 따른 사용자 타게팅 된 서비스 제공 화면의 구성 방법에 대하여 설명하였다. 상술한 바에 따르면, 사용자의 생체 신호 정보를 이용한 사용자 맞춤형 서비스가 제공될 수 있다.So far, a method of configuring a user-targeted service providing screen according to a second embodiment of the present invention has been described with reference to FIG. 20. As described above, a customized service may be provided by using the user's biosignal information.

지금까지 도 1 내지 도 20을 참조하여 설명된 본 발명의 개념은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The concept of the present invention described with reference to FIGS. 1 to 20 so far may be implemented as computer-readable codes on a computer-readable medium. The computer-readable recording medium is, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). I can. The computer program recorded on the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations are illustrated in a specific order in the drawings, it should not be understood that the operations must be executed in the specific order shown or in a sequential order, or all illustrated operations must be executed to obtain a desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the above-described embodiments should not be understood as necessitating such separation, and the program components and systems described are generally integrated together into a single software product or may be packaged into multiple software products. It should be understood that there is.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. I can understand. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting.

Claims (21)

컴퓨팅 장치가, 입력 영상에서 적어도 하나의 사람을 인식하는 단계;
상기 컴퓨팅 장치가, 상기 인식된 사람 중 제1 관심 사람 및 제2 관심 사람을 결정하는 단계;
상기 컴퓨팅 장치가, 상기 입력 영상에 대하여 상기 제1 관심 사람을 기준으로 영상 얼라인먼트를 수행한 결과 영상을 제1 영역에 디스플레이하고, 상기 제2 관심 사람을 기준으로 영상 얼라인먼트를 수행한 결과 영상을 제2 영역에 디스플레이하는 단계;
상기 컴퓨팅 장치가, 상기 입력 영상에서 나타나는 상기 제1 관심 사람 및 상기 제2 관심 사람 각각의 행동에 기초하여 점수를 산정하는 단계; 및
상기 컴퓨팅 장치가, 상기 제1 관심 사람 및 상기 제2 관심 사람 각각에 대하여 산정된 점수에 기초하여, 상기 제1 영역 및 상기 제2 영역 중 적어도 하나의 크기를 조정하는 단계
를 포함하는,
영상 얼라인먼트 방법.
Recognizing, by the computing device, at least one person from the input image;
Determining, by the computing device, a first person of interest and a second person of interest among the recognized persons;
The computing device displays an image as a result of performing image alignment with respect to the input image based on the first person of interest, and displays an image as a result of performing image alignment based on the second person of interest. Displaying in two areas;
Calculating, by the computing device, a score based on actions of the first person of interest and the second person of interest appearing in the input image; And
Adjusting, by the computing device, a size of at least one of the first region and the second region based on scores calculated for each of the first person of interest and the second person of interest.
Containing,
Video alignment method.
제1항에 있어서,
상기 제1 관심 사람 및 제2 관심 사람을 결정하는 단계는,
상기 인식된 사람 각각의 인구 통계학적 특성, 상기 인식된 사람 각각이 소지한 객체, 또는 상기 인식된 사람 각각에 대해 상황 기반 관심 사람 판정 로직을 적용한 결과에 기초하여 관심 사람을 결정하는 단계를 포함하는,
영상 얼라인먼트 방법.
The method of claim 1,
Determining the first person of interest and the second person of interest,
Determining a person of interest based on a demographic characteristic of each of the recognized persons, an object possessed by each of the recognized persons, or a result of applying a context-based person of interest determination logic to each of the recognized persons. ,
Video alignment method.
삭제delete 제1항에 있어서,
상기 제1 관심 사람 및 상기 제2 관심 사람 각각의 행동에 기초하여 점수를 산정하는 단계는,
상기 제1 관심 사람에 대한 영상이 기 지정된 기준 영상에 부합하는 정도를 산출하는 단계; 및
상기 제2 관심 사람에 대한 영상이 상기 기 지정된 기준 영상에 부합하는 정도를 산출하는 단계
를 포함하는,
영상 얼라인먼트 방법.
The method of claim 1,
The step of calculating a score based on the behavior of each of the first interested person and the second interested person,
Calculating a degree to which the image of the first person of interest matches a predetermined reference image; And
Calculating a degree to which the image of the second person of interest matches the predetermined reference image
Containing,
Video alignment method.
제1항에 있어서,
상기 제1 영역 및 상기 제2 영역 중 적어도 하나의 크기를 조정하는 단계는,
상기 제1 관심 사람에 대하여 산정된 점수가 상기 제2 관심 사람에 대하여 산정된 점수보다 높다는 판정에 기초하여, 상기 제1 영역의 크기를 확대하는 단계를 포함하는,
영상 얼라인먼트 방법.
The method of claim 1,
Adjusting the size of at least one of the first area and the second area,
Enlarging the size of the first area based on the determination that the score calculated for the first interested person is higher than the score calculated for the second interested person,
Video alignment method.
제1항에 있어서,
상기 제1 영역 및 상기 제2 영역 중 적어도 하나의 크기를 조정하는 단계는,
상기 제1 관심 사람에 대하여 산정된 점수가 상기 제2 관심 사람에 대하여 산정된 점수보다 높다는 판정에 기초하여, 상기 제2 영역의 크기를 축소하는 단계를 포함하는,
영상 얼라인먼트 방법.
The method of claim 1,
Adjusting the size of at least one of the first area and the second area,
Reducing the size of the second area based on the determination that the score calculated for the first interested person is higher than the score calculated for the second interested person,
Video alignment method.
제1항에 있어서,
상기 제1 관심 사람 및 상기 제2 관심 사람 각각에 대하여 산정된 점수를 디스플레이하는 단계
를 더 포함하는,
영상 얼라인먼트 방법.
The method of claim 1,
Displaying a score calculated for each of the first interested person and the second interested person
Further comprising,
Video alignment method.
컴퓨팅 장치와 결합하여,
입력 영상에서 적어도 하나의 사람을 인식하는 단계;
상기 인식된 사람 중 제1 관심 사람 및 제2 관심 사람을 결정하는 단계;
상기 입력 영상에 대하여 상기 제1 관심 사람을 기준으로 영상 얼라인먼트를 수행한 결과 영상을 제1 영역에 디스플레이하고, 상기 제2 관심 사람을 기준으로 영상 얼라인먼트를 수행한 결과 영상을 제2 영역에 디스플레이하는 단계;
상기 입력 영상에서 나타나는 상기 제1 관심 사람 및 상기 제2 관심 사람 각각의 행동에 기초하여 점수를 산정하는 단계; 및
상기 제1 관심 사람 및 상기 제2 관심 사람 각각에 대하여 산정된 점수에 기초하여, 상기 제1 영역 및 상기 제2 영역 중 적어도 하나의 크기를 조정하는 단계
를 실행시키기 위하여, 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
Combined with a computing device,
Recognizing at least one person from the input image;
Determining a first person of interest and a second person of interest among the recognized persons;
Displaying an image as a result of performing image alignment with respect to the input image based on the first person of interest, and displaying an image as a result of performing image alignment based on the second person of interest. step;
Calculating a score based on the actions of each of the first person of interest and the second person of interest appearing in the input image; And
Adjusting the size of at least one of the first region and the second region based on the scores calculated for each of the first person of interest and the second person of interest
A computer program stored in a computer-readable recording medium to execute.
입력 영상을 생성하는 카메라 센서;
상기 입력 영상에서 적어도 하나의 사람을 인식하고, 상기 인식된 사람 중 제1 관심 사람 및 제2 관심 사람을 결정하며, 상기 입력 영상에 대하여 상기 제1 관심 사람을 기준으로 영상 얼라인먼트를 수행하고, 상기 제2 관심 사람을 기준으로 영상 얼라인먼트를 수행하는 프로세서; 및
상기 제1 관심 사람을 기준으로 영상 얼라인먼트를 수행한 결과 영상을 제1 영역에 표시하고 상기 제2 관심 사람을 기준으로 영상 얼라인먼트를 수행한 결과 영상을 제2 영역에 표시하는 디스플레이를 포함하고,
상기 프로세서는,
상기 입력 영상에서 나타나는 상기 제1 관심 사람 및 상기 제2 관심 사람 각각의 행동에 기초하여 점수를 산정하고, 상기 제1 관심 사람 및 상기 제2 관심 사람 각각에 대하여 산정된 점수에 기초하여, 상기 제1 영역 및 상기 제2 영역 중 적어도 하나의 크기를 조정하는,
컴퓨팅 장치.
A camera sensor that generates an input image;
Recognizing at least one person from the input image, determining a first person of interest and a second person of interest among the recognized people, performing image alignment with respect to the input image based on the first person of interest, and the A processor that performs image alignment based on a second person of interest; And
A display configured to display an image as a result of performing image alignment based on the first person of interest in a first area, and displaying an image as a result of performing image alignment based on the second person of interest in a second area,
The processor,
A score is calculated based on the actions of each of the first person of interest and the second person of interest appearing in the input image, and based on the scores calculated for each of the first person of interest and the second person of interest, the second Adjusting the size of at least one of the first region and the second region,
Computing device.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190045839A 2019-04-19 2019-04-19 Image alignment method and apparatus thereof KR102239015B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190045839A KR102239015B1 (en) 2019-04-19 2019-04-19 Image alignment method and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190045839A KR102239015B1 (en) 2019-04-19 2019-04-19 Image alignment method and apparatus thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170109287A Division KR101972331B1 (en) 2017-08-29 2017-08-29 Image alignment method and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20190044596A KR20190044596A (en) 2019-04-30
KR102239015B1 true KR102239015B1 (en) 2021-04-13

Family

ID=66285928

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190045839A KR102239015B1 (en) 2019-04-19 2019-04-19 Image alignment method and apparatus thereof

Country Status (1)

Country Link
KR (1) KR102239015B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100906047B1 (en) 2005-03-14 2009-07-03 스미토모 베이클리트 컴퍼니 리미티드 Semiconductor device
JP6109970B2 (en) * 2013-05-30 2017-04-05 フェイスブック,インク. Proposal for tagging images on online social networks
KR102191050B1 (en) * 2015-09-09 2020-12-14 주식회사 아이티엑스에이아이 Personalized shopping mall system using virtual camera

Also Published As

Publication number Publication date
KR20190044596A (en) 2019-04-30

Similar Documents

Publication Publication Date Title
KR101972331B1 (en) Image alignment method and apparatus thereof
US11232288B2 (en) Image clustering method and apparatus, electronic device, and storage medium
JP7229174B2 (en) Person identification system and method
US20210012127A1 (en) Action recognition method and apparatus, driving action analysis method and apparatus, and storage medium
CN110249360B (en) Apparatus and method for recommending products
US20200175262A1 (en) Robot navigation for personal assistance
US20190172458A1 (en) Speech analysis for cross-language mental state identification
US10108852B2 (en) Facial analysis to detect asymmetric expressions
US10832069B2 (en) Living body detection method, electronic device and computer readable medium
US10318797B2 (en) Image processing apparatus and image processing method
US20170330029A1 (en) Computer based convolutional processing for image analysis
US20170011258A1 (en) Image analysis in support of robotic manipulation
US20210357627A1 (en) Makeup evaluation system and operating method thereof
US11954150B2 (en) Electronic device and method for controlling the electronic device thereof
US11455491B2 (en) Method and device for training image recognition model, and storage medium
US20090299814A1 (en) Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale
JP2014517371A (en) System and method for selecting personalized advertisements
JP2010067104A (en) Digital photo-frame, information processing system, control method, program, and information storage medium
US11430561B2 (en) Remote computing analysis for cognitive state data metrics
KR20040036730A (en) Method and apparatus for assessing interest in a displayed product
JP2016200969A (en) Image processing apparatus, image processing method, and program
KR102239015B1 (en) Image alignment method and apparatus thereof
JP7435837B2 (en) Information processing system, information processing device, information processing method, and program
KR102066892B1 (en) Make-up evaluation system and operating method thereof
Carneiro et al. FaVoA: Face-Voice association favours ambiguous speaker detection

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant