KR20220057438A - Tracking method for subject face displayed on display area of smart device - Google Patents
Tracking method for subject face displayed on display area of smart device Download PDFInfo
- Publication number
- KR20220057438A KR20220057438A KR1020210141570A KR20210141570A KR20220057438A KR 20220057438 A KR20220057438 A KR 20220057438A KR 1020210141570 A KR1020210141570 A KR 1020210141570A KR 20210141570 A KR20210141570 A KR 20210141570A KR 20220057438 A KR20220057438 A KR 20220057438A
- Authority
- KR
- South Korea
- Prior art keywords
- smart device
- face
- subject
- display area
- image data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/04—Programme control other than numerical control, i.e. in sequence controllers or logic controllers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Abstract
Description
본 발명은 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법에 관한 것이다.The present invention relates to a face tracking method of a subject displayed on a display area of a smart device.
일반적으로 화상 회의 시스템은 회의 참석자가 원거리에 있어도 화면을 통해 회의를 진행할 수 있도록 구현된 시스템이다.In general, a video conferencing system is a system implemented so that a meeting can be conducted through a screen even if a meeting participant is far away.
이러한 종래 화상 회의 시스템의 경우, 회의자는 카메라 앞에 위치하여야만 회면을 통해 원거리에 있는 상대방 회의자에게 자신의 모습을 보여줄 수 있었다.In the case of such a conventional video conferencing system, the conference person was able to show himself/herself to the other conference party through a video conference only when they were located in front of the camera.
즉, 종래의 화상 회의 시스템은 화상 회의시 회의자가 반드시 카메라 앞에 위치하여야만 하므로 회의자의 이동이 불가능한 문제점이 있다.That is, the conventional video conferencing system has a problem in that the conference person cannot move because the conference person must be located in front of the camera during the video conference.
또한, 스마트폰 등 휴대용 단말기를 휴대용 단말기 거치대에 거치한 상태로 화상 회의를 진행하는 경우, 회의자의 위치가 이동되면 휴대용 단말기의 디스플레이에 회의자가 표시되지 않아, 화상 회의 진행에 불편함이 초래되는 문제점이 있다.In addition, when a video conference is conducted while a portable terminal such as a smartphone is mounted on a portable terminal cradle, if the location of the conference person is moved, the conference person is not displayed on the display of the portable terminal, causing inconvenience in video conference progress. There is this.
한편, 종래 화상 회의 시스템에서 회의자를 추적하는 기술과 관련, 한국등록특허 제10-0220836호에 화상 회의시 하나 또는 그 이상의 회의자 영상에 해당하는 모델 영상 신호를 입력으로 추출된 경계 화소를 이용하여 각각의 모델 얼굴에 해당하는 폐곡선을 추출하여 모델 얼굴을 인식하는 모델 처리 단계(100 내지 105); 상기 인식된 하나 또는 그 이상의 모델 영상 신호 중에서 하나를 선택하는 모델 선택 단계(201); 카메라를 통해 입력되는 회의자 영상 신호를 입력으로 추출된 경계 화소를 이용하여 회의자 얼굴에 해당하는 폐곡선을 추출하여 회의자 얼굴을 인식하는 회의자 영상 처리 단계(202 내지 206); 상기 선택된 모델 얼굴의 폐곡선과 상기 인식된 회의자 얼굴의 폐곡선을 정합시키는 정합 단계(207); 상기 정합된 회의자를 추적하여 카메라를 이동시키는 회의자 추적 단계(208), 및 상기 인식된 하나 또는 그 이상의 모델 영상 신호 중에서 다른 하나를 선택하는 경우 정합 단계(207)로 진행하는 모델 변경 단계(210)에 의해 수행됨을 특징으로 하는 화상 회의 시스템의 회의자 추적 방법이 기술되어 있다.On the other hand, in relation to the technology of tracking a conference person in a conventional video conferencing system, Korean Patent Registration No. 10-0220836 uses boundary pixels extracted from model image signals corresponding to one or more conference images during video conference as input. Model processing steps (100 to 105) of recognizing a model face by extracting a closed curve corresponding to each model face; a model selection step (201) of selecting one of the recognized one or more model image signals; conference image processing steps (202 to 206) of recognizing the conference person's face by extracting a closed curve corresponding to the conference person's face by using the boundary pixel extracted from the conference video signal input through the camera; a matching step (207) of matching the closed curve of the selected model face and the recognized closed curve of the face of the skeptic; The conference participant tracking step 208 of tracking the matched conference person and moving the camera, and the model changing step 210 proceeding to the matching step 207 when another one of the recognized one or more model video signals is selected ), a method for tracking conference participants in a video conferencing system, characterized in that it is performed by
이에 본 발명은 전술한 배경에서 안출된 것으로, 스마트기기에 설치된 제1어플리케이션이 스마트기기의 촬영부를 이용하여 피사체의 안면을 촬영하고 안면정보를 포함하는 영상데이터를 생성하는 경우, 스마트기기에 설치된 제2어플리케이션이 영상데이터를 포함하는 화면표시데이터가 표시되는 디스플레이부 중 영상데이터가 표시되는 표시영역을 설정하고 영상데이터에 포함된 안면정보를 분석하여, 스마트기기의 디스플레이부 중 표시영역에 표시되는 피사체의 안면의 위치를 조정하기 위한 작동제어신호를 스마트기기 거치장치에 전송함으로써, 피사체의 안면이 스마트기기의 디스플레이부의 표시영역의 기설정된 기준위치에 오도록 스마트기기 거치장치의 동작을 제어하는 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention has been devised in the background described above, and when a first application installed on a smart device captures the face of a subject using the photographing unit of the smart device and generates image data including facial information, the first application installed on the smart device 2The application sets the display area in which the image data is displayed among the display unit where the screen display data including the image data is displayed, and analyzes the facial information included in the image data, and the subject displayed in the display area of the display unit of the smart device By transmitting an operation control signal for adjusting the position of the face of the smart device to the smart device holder, the smart device that controls the operation of the smart device holder so that the face of the subject comes to the preset reference position of the display area of the display unit of the smart device An object of the present invention is to provide a face tracking method of a subject displayed on a display area.
본 발명의 목적은 여기에 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited thereto, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
이러한 목적을 달성하기 위하여 본 발명의 일실시예는 스마트기기 거치장치와 연동하는 스마트기기가 피사체의 안면을 촬영하여 생성한 영상데이터를 기반으로, 상기 스마트기기가 상기 스마트기기 거치장치의 움직임을 제어하여 상기 피사체의 안면을 트래킹하는 방법에 있어서, (a) 상기 스마트기기에 설치된 제1어플리케이션이, 상기 스마트기기의 촬영부를 이용하여 상기 피사체의 안면을 촬영하고 안면정보를 포함하는 상기 영상데이터를 생성하는 단계; (b) 상기 스마트기기에 설치된 제2어플리케이션이, 상기 영상데이터를 포함하는 화면표시데이터가 표시되는 상기 스마트기기의 디스플레이부 중 상기 영상데이터가 표시되는 표시영역을 설정하는 단계; (c) 상기 제2어플리케이션이, 상기 영상데이터를 이용하여, 상기 영상데이터에 포함된 상기 안면정보를 분석하는 단계; (d) 상기 제2어플리케이션이, 상기 안면정보를 분석한 결과, 상기 피사체의 안면이 상기 디스플레이부 중 상기 표시영역에서 기설정된 기준위치에 있지 않은 경우, 상기 제2어플리케이션이 상기 스마트기기 거치장치의 작동제어신호를 생성하는 단계; 및 (e) 상기 스마트기기 거치장치가, 상기 스마트기기로부터 상기 작동제어신호를 전송받아, 상기 스마트기기의 위치를 조정하도록 동작하는 단계; 를 포함하는 것을 특징으로 하는 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법을 제공한다.In order to achieve this object, in one embodiment of the present invention, the smart device controls the movement of the smart device holding device based on the image data generated by the smart device interlocking with the smart device holding device taking the face of the subject. In the method of tracking the face of the subject, (a) a first application installed in the smart device uses the photographing unit of the smart device to capture the face of the subject and generate the image data including face information to do; (b) setting, by a second application installed in the smart device, a display area in which the image data is displayed among the display unit of the smart device in which screen display data including the image data is displayed; (c) analyzing, by the second application, the facial information included in the image data by using the image data; (d) as a result of analyzing the face information by the second application, when the face of the subject is not in a preset reference position in the display area of the display unit, the second application is installed in the smart device holding device generating an operation control signal; And (e) the smart device holding device, receiving the operation control signal from the smart device, operating to adjust the position of the smart device; It provides a face tracking method of the subject displayed on the display area of the smart device, characterized in that it comprises a.
본 발명의 일실시예에 의하면, 스마트기기에 설치된 제1어플리케이션이 스마트기기의 촬영부를 이용하여 피사체의 안면을 촬영하고 안면정보를 포함하는 영상데이터를 생성하는 경우, 스마트기기에 설치된 제2어플리케이션이 영상데이터를 포함하는 화면표시데이터가 표시되는 디스플레이부 중 영상데이터가 표시되는 표시영역을 설정하고 영상데이터에 포함된 안면정보를 분석하여, 스마트기기의 디스플레이부 중 표시영역에 표시되는 피사체의 안면의 위치를 조정하기 위한 작동제어신호를 스마트기기 거치장치에 전송함으로써, 피사체의 안면이 스마트기기의 디스플레이부의 표시영역의 기설정된 기준위치에 오도록 스마트기기 거치장치의 동작을 제어하는 효과가 있다.According to an embodiment of the present invention, when the first application installed on the smart device takes a picture of the face of the subject using the photographing unit of the smart device and generates image data including facial information, the second application installed on the smart device is Set a display area in which image data is displayed among the display units in which screen display data including image data is displayed, and analyze facial information included in the image data, By transmitting the operation control signal for adjusting the position to the smart device holder, there is an effect of controlling the operation of the smart device holder so that the face of the subject comes to a preset reference position of the display area of the display unit of the smart device.
도 1은 본 발명의 일실시예에 따른 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법을 나타낸 순서도이다.
도 2는 본 발명의 일실시예에 따른 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법을 나타낸 개념도이다.
도 3은 (b) 단계에서 제2어플리케이션이 영상데이터를 포함하는 화면표시데이터가 표시되는 스마트기기의 디스플레이부 중 표시영역을 설정하는 예를 나타낸 도면이다.
도 4는 스마트기기 거치장치에 스마트기기가 거치된 상태를 나타낸 사시도이다.
도 5는 도 4의 단면도이다.
도 6은 디스플레이부에 피사체의 영상데이터와 화상회의의 다른 참여자들을 나타내는 표시데이터가 표시된 예를 나타낸 도면이다.
도 7은 피사체의 안면의 안면기준위치와 디스플레이부의 표시영역의 기준위치 사이에 오프셋이 존재하는 예를 나타낸 도면이다.
도 8은 도 7에서 오프셋이 상쇄되어 피사체의 안면의 안면기준위치와 디스플레이부의 표시영역의 기준위치가 일치된 예를 나타낸 도면이다.1 is a flowchart illustrating a face tracking method of a subject displayed on a display area of a smart device according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a face tracking method of a subject displayed on a display area of a smart device according to an embodiment of the present invention.
3 is a diagram illustrating an example in which the second application sets the display area of the display unit of the smart device on which screen display data including image data is displayed in step (b).
4 is a perspective view showing a state in which the smart device is mounted on the smart device holder.
FIG. 5 is a cross-sectional view of FIG. 4 .
6 is a diagram illustrating an example in which image data of a subject and display data representing other participants of a video conference are displayed on the display unit.
7 is a diagram illustrating an example in which an offset exists between a reference position of a face of a subject's face and a reference position of a display area of the display unit.
FIG. 8 is a view showing an example in which the offset is canceled in FIG. 7 and the facial reference position of the subject's face matches the reference position of the display area of the display unit.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is formed between each component. It should be understood that elements may also be “connected,” “coupled,” or “connected.”
도 1은 본 발명의 일실시예에 따른 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법을 나타낸 순서도이다. 도 2는 본 발명의 일실시예에 따른 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법을 나타낸 개념도이다. 도 3은 (b) 단계에서 제2어플리케이션이 영상데이터를 포함하는 화면표시데이터가 표시되는 스마트기기의 디스플레이부 중 표시영역을 설정하는 예를 나타낸 도면이다. 도 4는 스마트기기 거치장치에 스마트기기가 거치된 상태를 나타낸 사시도이다. 도 5는 도 4의 단면도이다. 도 6은 디스플레이부에 피사체의 영상데이터와 화상회의의 다른 참여자들을 나타내는 표시데이터가 표시된 예를 나타낸 도면이다. 도 7은 피사체의 안면의 안면기준위치와 디스플레이부의 표시영역의 기준위치 사이에 오프셋이 존재하는 예를 나타낸 도면이다. 도 8은 도 7에서 오프셋이 상쇄되어 피사체의 안면의 안면기준위치와 디스플레이부의 표시영역의 기준위치가 일치된 예를 나타낸 도면이다.1 is a flowchart illustrating a face tracking method of a subject displayed on a display area of a smart device according to an embodiment of the present invention. 2 is a conceptual diagram illustrating a face tracking method of a subject displayed on a display area of a smart device according to an embodiment of the present invention. 3 is a diagram illustrating an example in which the second application sets the display area of the display unit of the smart device on which screen display data including image data is displayed in step (b). 4 is a perspective view showing a state in which the smart device is mounted on the smart device holder. FIG. 5 is a cross-sectional view of FIG. 4 . 6 is a diagram illustrating an example in which image data of a subject and display data representing other participants of a video conference are displayed on the display unit. 7 is a diagram illustrating an example in which an offset exists between a reference position of a face of a subject's face and a reference position of a display area of the display unit. FIG. 8 is a view showing an example in which the offset is canceled in FIG. 7 and the facial reference position of the subject's face coincides with the reference position of the display area of the display unit.
이들 도면들에 도시된 바와 같이, 본 발명의 일실시예에 의하면, 스마트기기 거치장치(301)와 연동하는 스마트기기(303)가 피사체의 안면을 촬영하여 생성한 영상데이터를 기반으로, 스마트기기(303)가 스마트기기 거치장치(301)의 움직임을 제어하여 피사체의 안면을 트래킹하는 방법에 있어서, (a) 스마트기기(303)에 설치된 제1어플리케이션이, 스마트기기(303)의 촬영부(305)를 이용하여 피사체의 안면을 촬영하고 안면정보를 포함하는 영상데이터를 생성하는 단계; (b) 스마트기기(303)에 설치된 제2어플리케이션이, 영상데이터를 포함하는 화면표시데이터가 표시되는 스마트기기(303)의 디스플레이부(307) 중 영상데이터가 표시되는 표시영역(S)을 설정하는 단계; (c) 제2어플리케이션이, 영상데이터를 이용하여, 영상데이터에 포함된 안면정보를 분석하는 단계; (d) 제2어플리케이션이, 안면정보를 분석한 결과, 피사체의 안면이 디스플레이부 중 표시영역(S)에서 기설정된 기준위치(P)에 있지 않은 경우, 제2어플리케이션이 스마트기기 거치장치(301)의 작동제어신호를 생성하는 단계; 및 (e) 스마트기기 거치장치(301)가, 스마트기기(303)로부터 작동제어신호를 전송받아, 스마트기기(303)의 위치를 조정하도록 동작하는 단계;를 포함하는 것을 특징으로 한다.As shown in these figures, according to an embodiment of the present invention, the
이하, 각 단계별로 설명한다.Hereinafter, each step will be described.
(a) 단계는, 스마트기기(303)에 설치된 제1어플리케이션이, 스마트기기(303)의 촬영부(305)를 이용하여 피사체의 안면을 촬영하고 안면정보를 포함하는 영상데이터를 생성하는 단계이다.Step (a) is a step in which the first application installed in the
스마트기기(303)는 일예로 스마트폰, 태블릿 등 촬영부(305)와 디스플레이부(307)를 포함하는 단말기가 될 수 있다.The
또한, 스마트기기(303)는, 스마트기기 거치장치(301)와 유무선 통신을 위한 통신모듈을 갖는다.In addition, the
물론, 스마트기기(303)는, 마이크와 스피커를 가질 수 있다.Of course, the
제1어플리케이션은 스마트기기(303)에 설치된다.The first application is installed on the smart device (303).
제1어플리케이션은 일예로 화상 회의 어플리케이션이다.The first application is, for example, a video conferencing application.
제1어플리케이션은, 스마트기기(303)의 촬영부(305)를 이용하여 피사체(화상회의에 참석하고 있는 회의자)의 안면을 촬영하고 안면정보를 포함하는 영상데이터를 생성한다.The first application uses the photographing
여기서, 피사체(사용자)의 안면정보는 일예로, 사용자의 눈썹 위치, 사용자의 눈 위치, 사용자의 콧등 위치 등을 포함할 수 있다.Here, the facial information of the subject (user) may include, for example, the user's eyebrow position, the user's eye position, and the user's nose bridge position.
이어서, (b) 단계는, 스마트기기(303)에 설치된 제2어플리케이션이, 영상데이터를 포함하는 화면표시데이터가 표시되는 스마트기기(303)의 디스플레이부(307) 중 영상데이터가 표시되는 표시영역(S)을 설정하는 단계이다.Next, in step (b), the second application installed in the
제2어플리케이션은, 스마트기기(303)에 설치된다.The second application is installed on the
제2어플리케이션은, 일예로 피사체(사용자, 화상회의에 참석하고 있는 회의자)의 안면을 트래킹하는 어플리케이션이다.The second application is, for example, an application that tracks the face of a subject (user, conference participant attending a video conference).
제2어플리케이션은, 영상데이터를 포함하는 화면표시데이터가 표시되는 스마트기기(303)의 디스플레이부(307) 중 영상데이터가 표시되는 표시영역(S)을 설정한다.The second application sets a display area (S) in which image data is displayed among the
여기서, 화면표시데이터는 여러명이 참여하는 화상회의시, 도 6에 도시된 바와 같이, 디스플레이부(307)의 'A1' 영역에 표시되는 영상데이터(피사체(화상회의에 참석하고 있는 회의자, 사용자)), 'A2' 영역 및 'A3' 영역에 표시되는 다른 참여자를 나타내는 표시데이터를 포함할 수 있다.Here, the screen display data is image data (subject (a conference participant attending a video conference, a user) displayed on the 'A1' area of the
한편, 제2어플리케이션은, 피사체(화상회의에 참석하고 있는 회의자, 사용자)가 디스플레이부(307)를 터치하여 입력하는 터치입력신호 또는 드래그입력신호를 인가받아 표시영역(S)을 설정할 수 있다.On the other hand, the second application may set the display area S by receiving a touch input signal or a drag input signal input by a subject (a conference person attending a video conference, a user) by touching the
또한, 제2어플리케이션은, 인공지능이 영상데이터를 분석하여 피사체(화상회의에 참석하고 있는 회의자, 사용자)의 안면을 인식한 디스플레이부(307)의 일정 영역을 표시영역(S)으로 설정할 수도 있다.In addition, the second application may set a certain area of the
이어서, (c) 단계는, 제2어플리케이션이, 영상데이터를 이용하여, 영상데이터에 포함된 안면정보를 분석하는 단계이다.Next, step (c) is a step in which the second application analyzes facial information included in the image data using the image data.
좀 더 구체적으로, 피사체(화상회의에 참석하고 있는 회의자, 사용자)의 안면을 트래킹하는 어플리케이션인 제2어플리케이션은 영상데이터를 이용하여 영상데이터에 포함된 피사체(화상회의에 참석하고 있는 회의자, 사용자)의 안면정보를 분석하게 된다.More specifically, the second application, which is an application for tracking the face of a subject (a conference person attending a video conference, a user), uses the video data to determine the subject included in the video data (a conference person attending a video conference, The user's facial information is analyzed.
이어서, (d) 단계는, 제2어플리케이션이, 안면정보를 분석한 결과, 피사체의 안면이 디스플레이부 중 표시영역(S)에서 기설정된 기준위치(P)에 있지 않은 경우, 제2어플리케이션이 스마트기기 거치장치(301)의 작동제어신호를 생성하는 단계이다.Subsequently, in step (d), as a result of analyzing the facial information by the second application, when the face of the subject is not in the preset reference position P in the display area S of the display unit, the second application is smart It is a step of generating an operation control signal of the device holding device (301).
좀 더 구체적으로, (d) 단계에서 제2어플리케이션은, 피사체의 안면의 기설정된 안면기준위치(L)와 디스플레이부(307)의 표시영역(S)의 기설정된 기준위치(P) 사이에 오프셋(Offset)이 있는 경우, 오프셋을 상쇄하기 위한 작동제어신호를 생성한다.More specifically, in step (d), the second application is an offset between a preset reference position (L) of the face of the subject and a preset reference position (P) of the display area (S) of the
한편, 일예로, 안면기준위치(L)는, 피사체의 안면의 미간(양 눈썹 사이)과 콧등을 잇는 가상선으로 설정될 수 있다.Meanwhile, as an example, the facial reference position L may be set as a virtual line connecting the forehead (between the eyebrows) and the bridge of the nose of the subject's face.
그리고 디스플레이부(307)의 표시영역(S)의 기설정된 기준위치(P)는, 디스플레이부(307)의 표시영역(S)의 중앙을 상하로 가로지르는 가상선으로 설정될 수 있다.In addition, the preset reference position P of the display area S of the
또한, 일예로, 안면기준위치(L)는, 피사체의 안면의 미간(양 눈썹 사이)과 콧등을 잇는 가상선과 피사체의 안면의 양 눈동자 중앙을 잇는 가상선이 만나는 교차점(X)으로 설정될 수 있으며, 디스플레이부(307)의 표시영역(S)의 기설정된 기준위치(P)는, 디스플레이부(307)의 표시영역(S)의 중앙을 상하로 가로지르는 가상선과 표시영역(S)을 좌우로 가로지르는 가상선이 만나는 교차점(Y)으로 설정될 수 있다.Also, as an example, the facial reference position (L) may be set as the intersection point (X) where the virtual line connecting the forehead (between the eyebrows) and the bridge of the nose of the subject's face and the virtual line connecting the center of both pupils of the subject's face meet. In addition, the preset reference position P of the display area S of the
이어서, (e) 단계는, 스마트기기 거치장치(301)가, 스마트기기(303)로부터 작동제어신호를 전송받아, 스마트기기(303)의 위치를 조정하도록 동작하는 단계이다.Subsequently, step (e) is a step of operating the smart
여기서, 스마트기기 거치장치(301)의 구성에 대한 일예를 설명하면, 스마트기기 거치장치(301)는, 스마트기기(303)가 거치되는 거치부(309); 및 거치부(309)가 좌위회전 또는 상하회전되도록 결합되는 지지부(311);를 포함할 수 있다.Here, when explaining an example of the configuration of the smart
거치부(309)는, 스마트기기(303)가 안착되어 거치되도록 한다.The mounting
이러한 거치부(309)는, 스마트기기(303)를 무선충전시킬 수 있는 무선충전패드(미도시)를 구비할 수 있다.The
지지부(311)는, 거치부(309)가 좌우회전 또는 상하회전되도록 거치부(309)와 연결된다.The
일예로, 지지부(311)는 내부에 모터(401)에 의해 정방향 또는 역방향으로 회전하는 스크류축(403)이 구비되고, 거치부(309)는 후방에 스크류축(403)과 치합되어 회전하는 기어(405)가 구비되어서, 모터(401)의 작동에 따라 거치부(309)가 상하방향으로 회전되도록 구성될 수 있다.As an example, the
또한, 지지부(311)는 그 하부에 모터(407)가 구비된 받침부(409)와 결합되어, 받침부(409)에 구비된 모터(407)의 정방향 또는 역방향 회전에 따라 지지부(311)가 연동하여 회전함으로써, 거치부(309)가 좌우방향으로 회전되도록 구성될 수 있다.In addition, the
한편, 스마트기긱 거치장치(301)는, 지지부(311)에 구비되며, 스마트기기(303)로부터 전송된 사운드신호를 출력하는 스피커부(313);를 더 포함할 수 있다.On the other hand, the smart
스피커부(313)는 일예로 지지부(311)의 일측에 착탈가능하게 결합되는 제1스피커(313a)와 지지부(311)의 타측에 착탈가능하게 결합되는 제2스피커(313b)를 포함할 수 있다.The speaker unit 313 may include, for example, a
이러한 스피커부(313)는, 스마트기기(303)와 유선 또는 무선으로 연결될 수 있으며, 스마트기기(303)와 유선 또는 무선으로 연결된 스마트기기 거치장치(301)와 다시 유선 또는 무선으로 연결될 수도 있다.The speaker unit 313 may be connected to the
이와 같은 구성의 스마트기기 거치장치(301)는, 스마트기기(303)로부터 작동제어신호를 전송받은 경우, 스마트기기(303)를 거치하고 있는 거치부(309)가 좌우회전 또는 상하회전하면서 스마트기기(303)의 위치를 조정함으로써, 스마트기기(303)의 디스플레이부(307)의 표시영역(S)에 표시되는 피사체의 안면이 디스플레이부(307)의 표시영역(S)의 기설정된 위치(P)에 오도록 조정된다.The smart
이상에서 설명한 바와 같이, 본 발명의 일실시예에 의하면, 스마트기기에 설치된 제1어플리케이션이 스마트기기의 촬영부를 이용하여 피사체의 안면을 촬영하고 안면정보를 포함하는 영상데이터를 생성하는 경우, 스마트기기에 설치된 제2어플리케이션이 영상데이터를 포함하는 화면표시데이터가 표시되는 디스플레이부 중 영상데이터가 표시되는 표시영역을 설정하고 영상데이터에 포함된 안면정보를 분석하여, 스마트기기의 디스플레이부 중 표시영역에 표시되는 피사체의 안면의 위치를 조정하기 위한 작동제어신호를 스마트기기 거치장치에 전송함으로써, 피사체의 안면이 스마트기기의 디스플레이부의 표시영역의 기설정된 기준위치에 오도록 스마트기기 거치장치의 동작을 제어하는 효과가 있다.As described above, according to an embodiment of the present invention, when the first application installed on the smart device captures the face of the subject using the photographing unit of the smart device and generates image data including the face information, the smart device A second application installed in the display unit sets the display area in which the image data is displayed among the display units in which the screen display data including the image data is displayed, and analyzes the facial information included in the image data, in the display area of the display unit of the smart device. By transmitting an operation control signal for adjusting the position of the displayed subject's face to the smart device holder, the operation of the smart device holder is controlled so that the face of the subject comes to a preset reference position of the display area of the display unit of the smart device. It works.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiment of the present invention are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
301 : 스마트기기 거치장치
303 : 스마트기기
305 : 촬영부
307 : 디스플레이부
S : 영상데이터가 표시되는 표시영역
P : 표시영역에서 기설정된 기준위치301: smart device holder
303: smart device
305: filming department
307: display unit
S : Display area where video data is displayed
P: preset reference position in the display area
Claims (5)
(a) 상기 스마트기기에 설치된 제1어플리케이션이, 상기 스마트기기의 촬영부를 이용하여 상기 피사체의 안면을 촬영하고 안면정보를 포함하는 상기 영상데이터를 생성하는 단계;
(b) 상기 스마트기기에 설치된 제2어플리케이션이, 상기 영상데이터를 포함하는 화면표시데이터가 표시되는 상기 스마트기기의 디스플레이부 중 상기 영상데이터가 표시되는 표시영역을 설정하는 단계;
(c) 상기 제2어플리케이션이, 상기 영상데이터를 이용하여, 상기 영상데이터에 포함된 상기 안면정보를 분석하는 단계;
(d) 상기 제2어플리케이션이, 상기 안면정보를 분석한 결과, 상기 피사체의 안면이 상기 디스플레이부 중 상기 표시영역에서 기설정된 기준위치에 있지 않은 경우, 상기 제2어플리케이션이 상기 스마트기기 거치장치의 작동제어신호를 생성하는 단계; 및
(e) 상기 스마트기기 거치장치가, 상기 스마트기기로부터 상기 작동제어신호를 전송받아, 상기 스마트기기의 위치를 조정하도록 동작하는 단계;
를 포함하는 것을 특징으로 하는 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법.In the method of tracking the face of the subject by controlling the movement of the smart device holding device by the smart device based on the image data generated by the smart device interlocking with the smart device holding device taking a picture of the subject's face,
(a) generating, by the first application installed in the smart device, the image data including the face information and photographing the face of the subject using the photographing unit of the smart device;
(b) setting, by a second application installed in the smart device, a display area in which the image data is displayed among the display unit of the smart device in which screen display data including the image data is displayed;
(c) analyzing, by the second application, the facial information included in the image data by using the image data;
(d) the second application, as a result of analyzing the facial information, when the face of the subject is not at a preset reference position in the display area of the display unit, the second application generating an operation control signal; and
(e) the smart device holding device, receiving the operation control signal from the smart device, operating to adjust the position of the smart device;
Face tracking method of the subject displayed on the display area of the smart device, characterized in that it comprises a.
상기 (d) 단계는,
상기 제2어플리케이션이, 상기 피사체의 안면의 기설정된 안면기준위치와 상기 디스플레이부의 상기 표시영역의 기설정된 기준위치 사이에 오프셋이 있는 경우, 상기 오프셋을 상쇄하기 위한 상기 작동제어신호를 생성하는 것을 특징으로 하는 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법.The method of claim 1,
Step (d) is,
In the second application, when there is an offset between a preset facial reference position of the face of the subject and a preset reference position of the display area of the display unit, generating the operation control signal to offset the offset A method of tracking the face of a subject displayed on the display area of a smart device.
상기 스마트기기 거치장치는,
상기 스마트기기가 거치되는 거치부; 및
상기 거치부가 좌우회전 또는 상하회전되도록 결합되는 지지부;
를 포함하는 것을 특징으로 하는 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법.The method of claim 1,
The smart device holder,
a cradle on which the smart device is mounted; and
a support part coupled to the holder to rotate left and right or up and down;
Face tracking method of the subject displayed on the display area of the smart device, characterized in that it comprises a.
상기 스마트기기 거치장치는,
상기 지지부에 구비되며, 상기 스마트기기로부터 전송된 사운드신호를 출력하는 스피커부;
를 더 포함하는 것을 특징으로 하는 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법.4. The method of claim 3,
The smart device holder,
a speaker unit provided in the support unit and outputting a sound signal transmitted from the smart device;
Face tracking method of the subject displayed on the display area of the smart device, characterized in that it further comprises.
상기 안면기준위치는,
상기 피사체의 안면의 미간과 콧등을 잇는 가상선인 것을 특징으로 하는 스마트기기의 디스플레이 영역에 표시된 피사체의 안면 트래킹 방법.3. The method of claim 2,
The facial reference position is,
The face tracking method of the subject displayed on the display area of the smart device, characterized in that the virtual line connecting the forehead and the bridge of the nose of the subject's face.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2021/015060 WO2022092746A1 (en) | 2020-10-29 | 2021-10-26 | Method for tracking face of subject displayed on display area of smart device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20200142029 | 2020-10-29 | ||
KR1020200142029 | 2020-10-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220057438A true KR20220057438A (en) | 2022-05-09 |
Family
ID=81581988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210141570A KR20220057438A (en) | 2020-10-29 | 2021-10-22 | Tracking method for subject face displayed on display area of smart device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220057438A (en) |
-
2021
- 2021-10-22 KR KR1020210141570A patent/KR20220057438A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10013805B2 (en) | Control of enhanced communication between remote participants using augmented and virtual reality | |
US9906725B2 (en) | Portable video communication system | |
CN104580992B (en) | A kind of control method and mobile terminal | |
US8203595B2 (en) | Method and apparatus for enabling improved eye contact in video teleconferencing applications | |
US6208373B1 (en) | Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users | |
KR101078057B1 (en) | Mobile terminal had a function of photographing control and photographing control system used image recognition technicque | |
US8749607B2 (en) | Face equalization in video conferencing | |
JP6452440B2 (en) | Image display system, image display apparatus, image display method, and program | |
CN110401810B (en) | Virtual picture processing method, device and system, electronic equipment and storage medium | |
JPH11127275A (en) | Communication equipment | |
JP2005092657A (en) | Image display device and method | |
JP2012175136A (en) | Camera system and control method of the same | |
CN113138669A (en) | Image acquisition method, device and system of electronic equipment and electronic equipment | |
JP2010244322A (en) | Communication character device and program therefor | |
JP2016213674A (en) | Display control system, display control unit, display control method, and program | |
TW202141120A (en) | Head wearable device with adjustable image sensing modules and its system | |
JPWO2019155735A1 (en) | Information processing equipment, information processing methods and programs | |
CN106550226A (en) | Projected picture correcting method and device | |
CN111163280B (en) | Asymmetric video conference system and method thereof | |
US7986336B2 (en) | Image capture apparatus with indicator | |
JPWO2013014872A1 (en) | Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program | |
CN102158680A (en) | Telephone conference terminal with visualization function | |
JP2005117285A (en) | Information input device, communication terminal and communication method | |
KR20220057438A (en) | Tracking method for subject face displayed on display area of smart device | |
KR20220057439A (en) | Face tracking method based on face recognition |