KR20230039555A - Portrait positioning type remote meeting method - Google Patents

Portrait positioning type remote meeting method Download PDF

Info

Publication number
KR20230039555A
KR20230039555A KR1020220113124A KR20220113124A KR20230039555A KR 20230039555 A KR20230039555 A KR 20230039555A KR 1020220113124 A KR1020220113124 A KR 1020220113124A KR 20220113124 A KR20220113124 A KR 20220113124A KR 20230039555 A KR20230039555 A KR 20230039555A
Authority
KR
South Korea
Prior art keywords
screen
person
information
background
video conference
Prior art date
Application number
KR1020220113124A
Other languages
Korean (ko)
Other versions
KR102566072B1 (en
Inventor
서형수
Original Assignee
알서포트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알서포트 주식회사 filed Critical 알서포트 주식회사
Priority to KR1020220113124A priority Critical patent/KR102566072B1/en
Publication of KR20230039555A publication Critical patent/KR20230039555A/en
Application granted granted Critical
Publication of KR102566072B1 publication Critical patent/KR102566072B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present invention relates to a video conference performed by a plurality of computers (10) connected through the Internet. A virtual screen (32) obtained by synthesizing an actual photographed person and a pre-stored virtual background is output to properly adjust the position of a person on the virtual screen (32) in spite of the actual movement of the person. Through the present invention, it is possible to implement a stable screen in the course of the video conference in which the virtual screen (32) is implemented. Thus, it is possible to improve the effectiveness and efficiency of the video conference and secure a high degree of immersion in performing the video conference.

Description

인물 위치 조정형 화상회의 방법{PORTRAIT POSITIONING TYPE REMOTE MEETING METHOD}Person Positioning Video Conferencing Method {PORTRAIT POSITIONING TYPE REMOTE MEETING METHOD}

본 발명은 인터넷을 통하여 연결된 다수의 컴퓨터(10)에 의하여 수행되는 화상회의에 관한 것으로, 실제 촬영된 인물과 사전 저장된 가상의 배경이 합성된 가상화면(32)이 컴퓨터(10) 화면으로 출력되되, 실제 인물의 이동에도 불구하고 가상화면(32)상 인물의 위치가 적절하게 조정될 수 있도록 한 것이다.The present invention relates to a video conference performed by a plurality of computers 10 connected through the Internet, and a virtual screen 32 synthesized with a actually photographed person and a pre-stored virtual background is output to the computer 10 screen. , The position of the person on the virtual screen 32 can be appropriately adjusted despite the actual movement of the person.

인터넷 통신의 속도 및 개인용 컴퓨터의 성능 향상으로 인하여, 전용 통신선과 고가의 영상장비 및 신호처리 시스템의 구축 없이도 인터넷 및 개인용 컴퓨터를 통한 다자간 화상회의가 가능하게 되었으며 특히, 특허 제1771400호에서와 같이 화상회의에 참여하는 컴퓨터에 탑재된 브라우저가 화상회의를 목적으로 개설된 웹페이지에 접속하는 방식으로 화상회의의 진행이 가능하게 되어 사용자 편의가 비약적으로 향상된 바 있다.Due to the improvement in the speed of Internet communication and the performance of personal computers, multilateral video conferences through the Internet and personal computers have become possible without the construction of dedicated communication lines and expensive video equipment and signal processing systems. User convenience has been dramatically improved as a video conference can be conducted in a way that a browser installed in a computer participating in a conference accesses a web page established for the purpose of video conference.

또한, 고속 이동통신망 및 무선랜 등 무선망의 보급이 확대되고 무선망 접속 및 고속, 대용량 정보처리가 가능한 스마트폰 및 태블릿PC 등의 휴대형 정보기기 사용이 보편화되면서, 컴퓨터 및 인터넷을 기반으로 하는 화상회의의 수행에 있어서 시간적, 공간적 제약이 극적으로 완화되고 있다.In addition, as the spread of wireless networks such as high-speed mobile communication networks and wireless LANs expands and the use of portable information devices such as smartphones and tablet PCs capable of accessing wireless networks and processing high-speed and large-capacity information becomes common, computer and Internet-based image The temporal and spatial constraints on conducting meetings are being dramatically relaxed.

즉, 탁상용 컴퓨터를 기반으로 사무실 또는 회의실 등 고정된 공간에서 수행되던 종래의 화상회의에서 탈피하여, 도 1에서와 같이 스마트폰 또는 태블릿PC 등 무선망 접속이 가능한 다양한 정보기기가 화상회의에 활용됨에 따라, 가정은 물론 공공장소 또는 야외 등 다양한 환경에서 화상회의가 수행될 수 있는 것이다.That is, breaking away from the conventional video conference that was conducted in a fixed space such as an office or conference room based on a desktop computer, various information devices capable of accessing a wireless network such as a smartphone or tablet PC as shown in FIG. 1 are utilized for video conferences. Accordingly, video conferences can be performed in various environments such as homes, public places, or outdoors.

이렇듯, 회상회의 수행에 있어서의 시간적, 공간적 제약이 완화되고, 다양한 장소에서 화상회의가 진행됨에 따라 산업분야는 물론 일상생활 전반에서 화상회의 활용이 확대되고 있으며, 특히 최근의 비대면 추세 및 재택근무 등의 확산으로 인하여 화상회의 서비스에 대한 관심 및 수요가 폭발적으로 증대되고 있다.As such, as the temporal and spatial constraints on video conferencing are alleviated and video conferencing is conducted in various places, the use of video conferencing is expanding not only in the industrial field but also in everyday life. In particular, the recent non-face-to-face trend and telecommuting Due to the spread of video conferencing services, interest and demand for video conferencing services are explosively increasing.

전술한 바와 같이, 화상회의에 있어서의 공간적 제약이 완화되어, 다양한 공간에서 화상회의가 수행되고 있는 바, 실제 촬영 영상의 여과 없는 송출로 인한 사생활 노출 등의 문제가 대두되고 있으며, 그에 따라 실제 촬영된 실제화면(31)을 구성하는 촬상정보 중 인물정보(50)를 제외한 실제 배경의 촬상정보를 소거하거나, 실제 배경이 소거된 인물정보(50)와 사전 저장된 가상의 배경정보(40)를 합성하여 가상화면(32)을 구현하는 기술이 활용되고 있다.As described above, as the spatial restrictions in video conferencing have been alleviated and video conferencing is being conducted in various spaces, problems such as exposure of privacy due to unfiltered transmission of actual shooting images have emerged, and accordingly, actual shooting Among the imaging information constituting the real screen 31, the image information of the actual background except for the person information 50 is erased, or the person information 50 from which the actual background has been erased is combined with the pre-stored virtual background information 40. Thus, a technology for implementing the virtual screen 32 is being utilized.

즉, 화상회의 수행중 컴퓨터(10) 화면을 구성함에 있어서, 인물 부분만을 추출하고, 실제 촬영 배경이 아닌 사전 저장된 배경, 예컨데 아름다운 풍경 등을 합성하여 출력하는 것으로, 이로써 해당 인물의 실제 위치를 타 회의 참여자가 확인할 수 없어 사생활을 보호할 수 있을 뿐 아니라, 사용자의 기호에 따라 다양한 배경을 선택할 수 있도록 함으로써 사용자 만족도도 제고할 수 있는 것이다.That is, in configuring the screen of the computer 10 during a video conference, only the person part is extracted, and a pre-stored background, such as a beautiful scenery, is synthesized and output, not the actual photographed background. Not only can meeting participants' privacy be protected because they cannot be identified, but also user satisfaction can be improved by enabling users to select various backgrounds according to their preferences.

특히, 촬상정보에서 인물을 추출하는 이미지프로세싱에 있어서, 히스토그램 평활화 등 전통적인 외곽선 인식 기법을 탈피하여 기계학습 등 다양한 기법이 적용됨에 따라, 촬상정보내 인물정보(50)의 추출 정확도 및 속도가 비약적으로 발전되고 있으며, 이에 따라 일층 자연스럽고 미려한 가상영상의 구현이 실현되고 있다.In particular, in image processing for extracting a person from captured information, as various techniques such as machine learning are applied by breaking away from traditional outline recognition techniques such as histogram smoothing, the accuracy and speed of extraction of person information 50 in the captured information is drastically improved. It is being developed, and accordingly, the realization of a more natural and beautiful virtual image is being realized.

그러나, 종래의 배경 합성형 화상회의 서비스는 단순히 실제 촬영 배경이 소거된 화상정보와 사전 저장 가상배경을 중첩하는 것으로서, 인물의 실제 이동이 가상영상에서 가감 없이 반영되고 있으며, 이로 인하여 다음과 같은 다양한 문제가 야기된다.However, the conventional background synthesis type videoconferencing service simply overlaps the image information from which the actual shooting background has been deleted and the pre-stored virtual background, and the actual movement of the person is reflected in the virtual image without addition or subtraction. As a result, various A problem arises.

우선, 인물의 실제 움직임이 가상영상에서도 그대로 반영됨으로 인하여 산만한 화면이 출력될 수 밖에 없으며, 실제 촬상영상에서의 인물의 움직임에 비하여 가상의 영상을 배경으로 구현되는 인물의 움직임은 원근감의 왜곡 및 다양한 착시 효과를 야기함으로써 심각한 시각적 혼란을 초래하게 된다.First of all, since the actual motion of the person is reflected in the virtual image as it is, a distracting screen is inevitable. Compared to the motion of the person in the actual captured image, the motion of the person implemented in the background of the virtual image causes distortion of perspective and It causes serious visual confusion by causing various optical illusion effects.

특히, 화상회의 특성상 회의 참여자는 이러한 왜곡 영상에 장시간 노출될 수 밖에 없는 바, 시각적 피로가 누적될 수 밖에 없음은 물론 심할 경우 심리적 불안정이 유발될 수도 있다.Particularly, due to the nature of videoconferencing, conference participants are inevitably exposed to such distorted images for a long time, and visual fatigue inevitably accumulates and, in severe cases, psychological instability may be induced.

또한, 산만한 화면 구성으로 인하여, 화상회의 참여자의 회의 몰입을 방해할 수 밖에 없으며, 이로 인하여 화상회의를 통한 참여자간 소통 및 의견 교환 효과가 심각하게 훼손될 수 밖에 없다.In addition, due to the distracting configuration of the screen, it is inevitable to interrupt the meeting immersion of the participants in the video conference, and as a result, the effect of communication and exchange of opinions between participants through the video conference cannot but be seriously damaged.

본 발명은 전술한 문제점을 감안하여 창안된 것으로, 인터넷을 통하여 연결된 다수의 컴퓨터(10)에 의하여 수행되는 화상회의 방법에 있어서, 컴퓨터(10)에 탑재된 회의프로그램이 실제화면(31)의 촬상정보에서 인물정보(50)를 추출하고, 배경데이터베이스(90)에서 배경정보(40)를 인출하는 실행단계(S10)와, 회의프로그램이 인물정보(50)를 구성하는 전체 화상의 위치를 특정하는 기준점(55)을 설정하는 설정단계(S21)와, 회의프로그램이 배경정보(40)에 사전 설정된 표적점(45)과 상기 기준점(55)이 일치되도록 배경정보(40)와 인물정보(50)를 중첩하여 가상화면(32)을 생성하는 중첩단계(S22)로 이루어짐을 특징으로 하는 인물 위치 조정형 화상회의 방법이다.The present invention was devised in view of the above-described problems, and in a video conference method performed by a plurality of computers 10 connected through the Internet, a conference program loaded in the computer 10 captures an image of the actual screen 31 An execution step (S10) of extracting the person information 50 from the information and fetching the background information 40 from the background database 90, and the meeting program specifying the location of all images constituting the person information 50 In the setting step (S21) of setting the reference point 55, the background information 40 and the person information 50 so that the reference point 55 coincides with the target point 45 preset in the background information 40 of the conference program. It is a person position adjustment type video conference method characterized in that it consists of an overlapping step (S22) of generating a virtual screen 32 by overlapping.

또한, 본 발명은 상시 중첩단계(S22)에서는 회의프로그램이 배경정보(40)에 사전 설정된 표적점(45)과 상기 기준점(55)이 일치되도록 배경정보(40)와 인물정보(50)를 중첩하여 가상화면(32)을 생성하되, 중첩전 기준점(55)과 표적점(45)을 연결하는 선형 경로상에 다수의 경유점(65)을 설정하고, 기준점(55)이 이들 경유점(65)을 경유하여 표적점(45)과 일치됨을 특징으로 하는 인물 위치 조정형 화상회의 방법이다.In addition, in the regular overlapping step (S22) of the present invention, the background information 40 and the person information 50 are overlapped so that the reference point 55 coincides with the target point 45 preset in the background information 40 of the conference program. to create a virtual screen 32, but set a plurality of waypoints 65 on a linear path connecting the reference point 55 and the target point 45 before overlapping, and the reference point 55 is the waypoint 65 ) It is a person position adjustment type video conference method characterized by matching with the target point 45 via.

또한, 본 발명은 상기 중첩단계(S22)가 수행된 후, 가상화면(32)상 인물정보(50)에 대응되는 객체가 조작됨에 따라, 배경정보(40)상 표적점(45) 위치가 변경됨을 특징으로 하는 인물 위치 조정형 화상회의 방법이다.In addition, in the present invention, after the overlapping step (S22) is performed, as the object corresponding to the person information 50 on the virtual screen 32 is manipulated, the position of the target point 45 on the background information 40 is changed. It is a person position adjustment type video conference method characterized in that.

본 발명을 통하여, 가상화면(32)이 구현되는 화상회의 진행 과정에서 안정적인 화면 구현이 가능하며, 이로써 화상회의의 효용성 및 효율성을 제고하고, 화상회의 수행에 있어서 고도의 몰입성을 확보할 수 있다.Through the present invention, it is possible to implement a stable screen in the course of a video conference in which the virtual screen 32 is implemented, thereby improving the effectiveness and efficiency of the video conference and securing a high degree of immersion in performing the video conference.

특히, 출력 화면상 인물 위치가 안정적으로 유지됨에 따라, 화상회의 참여자의 시각적 피로를 경감하고 심리적 안정을 도모할 수 있다.In particular, as the position of the person on the output screen is stably maintained, visual fatigue of the videoconference participant can be reduced and psychological stability can be promoted.

도 1은 본 발명의 컴퓨터 연결 상태 예시도
도 2는 실제화면이 출력되는 본 발명의 컴퓨터 화면 예시도
도 3은 가상화면이 출력되는 본 발명의 컴퓨터 화면 예시도
도 4는 가상화면이 출력되는 본 발명의 컴퓨터인 스마트폰 화면 예시도
도 5는 본 발명의 실제화면 및 가상화면 비교도
도 6은 종래기술의 단계별 화면 및 영상정보 설명도
도 7은 종래기술의 인물 이동시 화면 설명도
도 8은 본 발명의 인물 이동시 화면 설명도
도 9는 본 발명의 단계별 화면 및 영상정보 설명도
도 10은 본 발명의 인물 이동시 시점별 화면 설명도
도 11은 본 발명 완속형 실시예의 인물 이동시 화면 설명도
도 12는 도 11 실시예의 경유점 설명도
도 13은 본 발명 표적점 조절형 실시예의 인물 이동시 화면 설명도
1 is an exemplary view of a computer connection state of the present invention
Figure 2 is an example of a computer screen of the present invention on which an actual screen is output
3 is an exemplary view of a computer screen of the present invention on which a virtual screen is output;
Figure 4 is an example of a smartphone screen that is a computer of the present invention on which a virtual screen is output
5 is a comparison diagram of a real screen and a virtual screen of the present invention
6 is an explanatory diagram of screen and image information step-by-step in the prior art;
7 is a screen explanatory diagram when moving a person in the prior art
8 is a screen explanatory diagram when moving a person of the present invention
9 is a step-by-step screen and image information explanatory diagram of the present invention
10 is a screen explanatory diagram for each viewpoint when a person moves according to the present invention
11 is a screen explanatory diagram when moving a person in a slow-moving embodiment of the present invention
Fig. 12 is an explanatory diagram of waypoints in the embodiment of Fig. 11;
13 is a screen explanatory diagram when moving a person in a target point adjustable embodiment of the present invention

본 발명의 상세한 구성 및 수행 과정을 첨부된 도면을 통하여 설명하면 다음과 같다.The detailed configuration and execution process of the present invention will be described through the accompanying drawings.

우선, 도 1은 인터넷을 기반으로 본 발명의 화상회의를 수행하는 구성요소 및 구성요소간 연결상태를 도시한 것으로, 도시된 바와 같이, 본 발명의 화상회의는 기본적으로 영상 촬영 및 음성 입출력 기능이 탑재된 다수의 컴퓨터(10)에 의하여 수행되며, 이들 다수의 컴퓨터(10)는 인터넷을 통하여 상호 연결된다.First of all, FIG. 1 shows the components for performing the video conference of the present invention based on the Internet and the connection state between the components. As shown, the video conference of the present invention basically has video recording and audio input/output functions. It is performed by a plurality of computers 10 mounted thereon, and these plurality of computers 10 are interconnected through the Internet.

또한, 동 도면에서 가상선으로 도시된 바와 같이, 웹페이지(21) 또는 서버(20)가 구성되어 화상회의 참여 컴퓨터(10)가 이들 웹페이지(21) 또는 서버(20)를 경유하여 연결될 수도 있으며, 컴퓨터(10) 또는 서버(20)에는 후술할 배경정보(40)가 수록된 배경데이터베이스(90)가 연결된다.In addition, as shown in phantom lines in the same figure, a web page 21 or a server 20 may be configured and the computer 10 participating in a video conference may be connected via these web pages 21 or the server 20. The computer 10 or the server 20 is connected to a background database 90 containing background information 40 to be described later.

여기서 배경데이터베이스(90)란 후술할 가상화면(32)을 구현함에 있어서 활용되는 가상의 배경정보(40)가 수록되는 데이터베이스이며, 컴퓨터(10)와 배경데이터베이스(90)의 연결 또는 서버(20)와 배경데이터베이스(90)의 연결이란 당해 컴퓨터(10) 또는 서버(20)의 기억장치내 배경데이터베이스(90)가 구축되거나, 외장형 기억장치 또는 원격지 스토리지에 배경데이터베이스(90)가 구축되어 통신로를 통하여 컴퓨터(10) 또는 서버(20)와 연결되는 상태를 망라하는 것이다.Here, the background database 90 is a database in which virtual background information 40 used in implementing the virtual screen 32 to be described later is recorded, and the connection between the computer 10 and the background database 90 or the server 20 The connection of the background database 90 with the background database 90 in the storage device of the computer 10 or server 20 is built, or the background database 90 is built in an external storage device or remote storage to establish a communication path It covers the state of being connected to the computer 10 or the server 20 through

또한, 본 발명에 있어서 인터넷 기반 화상회의를 수행하는 컴퓨터(10)로는 카메라가 장착되고 음성 입출력이 가능한 통상의 탁상용 컴퓨터(10) 또는 랩탑 컴퓨터(10) 뿐 아니라, 도 1에서도 예시된 바와 같이 촬상기능이 탑재되고 인터넷 접속이 가능한 태블릿PC 또는 스마트폰 등 다양한 정보기기가 적용될 수 있다.In addition, in the present invention, the computer 10 performing the Internet-based video conference includes not only a conventional desktop computer 10 or laptop computer 10 equipped with a camera and capable of voice input and output, but also an image pickup as illustrated in FIG. Various information devices such as tablet PCs or smart phones equipped with functions and capable of accessing the Internet can be applied.

여타의 인터넷 기반 화상회의 방법에서와 같이 본 발명에 있어서의 화상회의 참여 컴퓨터(10)간 주요 송수신 정보 역시 영상정보 및 음성정보로서, 이들 정보는 컴퓨터(10)간 개설된 통신로(session)를 통하여 유통되는데, 영상정보 및 음성정보의 입출력 및 유통은 물론, 후술할 제반 이미지프로세싱을 수행하는 회의프로그램이 컴퓨터(10)에 탑재되어 실행됨에 따라 화상회의가 진행된다.As in other Internet-based videoconferencing methods, the main transmission and reception information between the computers 10 participating in the videoconferencing in the present invention is also video information and audio information, and these information is provided through a communication path established between the computers 10. The video conference proceeds as a conference program that performs input and output and distribution of video and audio information as well as various image processing to be described later is installed and executed in the computer 10.

이러한 본 발명의 회의프로그램은 영상정보 및 음성정보의 송수신 기능이 자체 구비된 브라우저(browser), 영상정보 및 음성정보의 송수신 플러그인(plug-in)이 설치된 브라우저 또는 화상회의 목적의 통신로 개설 및 정보 송수신을 담당하는 별도의 응용프로그램 등 다양한 형식을 가질 수 있다.The conference program of the present invention is a browser equipped with a function of transmitting and receiving video and audio information, a browser equipped with a plug-in for transmitting and receiving video and audio information, or a communication channel for the purpose of video conferencing and information It can have various formats, such as a separate application program responsible for transmission and reception.

특히, 도 1에서 가상선으로 도시된 바와 같이, 서버(20)와 연결된 웹페이지(21)가 구축되고 컴퓨터(10)의 회의프로그램이 웹페이지(21)를 매개로 서버(20)와 접속되는 방식이 본 발명에도 적용될 수 있는데, 이 경우 회의프로그램으로는 전술한 브라우저가 적용될 수 있으며, 브라우저는 일반 인터넷 사용자에게 친숙한 프로그램이므로 회의프로그램으로서 브라우저가 적용되는 경우 사용자 편의 확보에 있어서 유리하다.In particular, as shown by a phantom line in FIG. 1, a web page 21 connected to the server 20 is built and a conference program of the computer 10 is connected to the server 20 via the web page 21. The method can also be applied to the present invention. In this case, the above-described browser can be applied as a conference program, and since the browser is a program familiar to general Internet users, it is advantageous to secure user convenience when the browser is applied as a conference program.

도 2 및 도 3은 본 발명의 화상회의가 수행되는 컴퓨터(10)의 화면을 예시한 것으로, 도시된 바와 같이, 컴퓨터(10)의 화면에는 화상회의의 각 참여자 컴퓨터(10)에서 송출된 영상정보 즉, 각 참여자가 자신의 컴퓨터(10)에 의하여 촬영된 영상이 출력되고 있는데, 이들 각 컴퓨터(10)별 송출 영상정보는 화자화면(11), 본인화면(12) 및 청자화면(13)으로 구분되어 출력된다.2 and 3 illustrate the screen of the computer 10 on which the video conference of the present invention is performed. As shown, the screen of the computer 10 displays the video transmitted from each participant computer 10 of the video conference. Information, that is, an image captured by each participant's own computer 10 is output, and the image information transmitted by each computer 10 is a speaker screen 11, a person's screen 12, and a listener screen 13 are separated and output.

화자화면(11)은 당 시점(時點)에서 발언하는 주 발언자를 촬영한 화면이고, 본인화면(12)은 당해 컴퓨터(10)의 사용자가 당해 컴퓨터(10)에 장착된 카메라에 의하여 촬영된 영상을 출력하는 화면으로서, 이들 화자화면(11) 및 본인화면(12)이 여타의 개별 청자화면(13) 점유 영역을 월등하게 상회하는 면적으로 출력된다.The speaker screen 11 is a screen that captures the main speaker speaking at the time, and the main speaker screen 12 is an image of the user of the computer 10 captured by the camera installed in the computer 10. As a screen for outputting, the speaker screen 11 and the user screen 12 are output with an area far exceeding the area occupied by other individual listener screens 13.

또한, 도 4 역시 본 발명의 컴퓨터(10) 화면을 예시한 것으로서, 도시된 실시예에서는 컴퓨터(10)로서 휴대형 인터넷 접속 정보기기인 스마트폰이 적용되고 있으며, 이 경우에도 화자화면(11) 및 본인화면(12)이 청자화면(13)의 면적을 상회한다.In addition, FIG. 4 also illustrates the screen of the computer 10 of the present invention. In the illustrated embodiment, a smartphone, a portable Internet access information device, is applied as the computer 10, and in this case, the speaker screen 11 and The main screen 12 exceeds the area of the blue screen 13.

전술한 바와 같이 본 발명은 화상회의 수행중 화면 출력에 있어서, 실제 촬상된 영상을 가감없이 출력하는 것이 아니라, 촬상 영상 중 인물을 추출하고 가상의 배경과 합성하여 출력하는 것으로서, 도 2는 실제 촬영 영상을 그대로 출력하여 본인화면(12)으로서 실제화면(31)이 출력되는 상태를 예시하고 있으며, 도 3 및 도 4는 인물과 가상의 배경이 합성된 가상화면(32)이 본인화면(12)으로서 출력되는 상태를 예시하고 있는데, 이러한 가상화면(32) 출력은 사용자가 선택할 수 있는 기능으로 제공되며, 도 2 내지 도 5에 예시된 바와 같이, 사용자가 화면상 구현된 아이콘 등의 객체를 클릭 또는 터치하는 조작을 통하여 가상화면(32) 기능이 수행될 수 있다.As described above, in the screen output during a video conference, the present invention does not output an actual captured image without adding or subtracting, but extracts a person from the captured image and outputs it by synthesizing it with a virtual background. The actual screen 31 is output as the original screen 12 by outputting the image as it is, and FIGS. The state of being output as is exemplified. This virtual screen 32 output is provided as a function that the user can select, and as illustrated in FIGS. 2 to 5, the user clicks an object such as an icon implemented on the screen. Alternatively, the function of the virtual screen 32 may be performed through a touch operation.

즉, 도 5에서와 같이, 도면 상부에 도시된 바와 같은 실제화면(31) 출력상태에서 사용자가 우상단의 아이콘을 클릭하면 가상화면(32)으로 화면이 전환되고, 동 도면 하부에 도시된 바와 같은 가상화면(32) 출력상태에서도 우상단의 아이콘을 클릭함에 따라 실제화면(31)으로 복귀될 수 있는 것이다.That is, as shown in FIG. 5, when the user clicks the icon at the top right in the actual screen 31 output state as shown in the upper part of the drawing, the screen is converted to the virtual screen 32, and as shown in the lower part of the same drawing Even in the virtual screen 32 output state, it is possible to return to the actual screen 31 by clicking the icon at the top right.

이러한 가상화면(32)의 구현은 도 6 및 도 7에 도시된 바와 같은 종래의 화상회의 시스템에서와 같이, 실제 촬영 영상에서 인물에 해당되는 영상정보인 인물정보(50)를 추출하고 인물정보(50)를 제외한 여타의 실제화면(31) 구성 영상정보인 소거영역(59)은 제거한 후, 소거영역(59)이 제거된 인물정보(50)를 사전 저장되어 확보된 배경정보(40)와 중첩하여 합성하는 방식으로 수행된다.As in the conventional video conferencing system as shown in FIGS. 6 and 7, the implementation of the virtual screen 32 extracts person information 50, which is image information corresponding to a person, from an actual shot image, and person information ( After removing the erased area 59, which is the image information of the actual screen 31 except for 50), the person information 50 from which the erased area 59 has been removed is overlapped with the background information 40 that is pre-stored and secured. This is done in a synthetic way.

물론, 인물정보(50)의 추출은 해당 인물의 실제 움직임을 추종할 수 밖에 없으며, 따라서 종래기술에서는 도 7에서와 같이, 인물의 움직임이 가상화면(32)에 가감없이 반영되어, 실제화면(31)에서의 인물 움직임이 가상화면(32)에서도 그대로 출력된다.Of course, extraction of the person information 50 has no choice but to follow the actual motion of the person, and therefore, in the prior art, as shown in FIG. 7, the motion of the person is reflected on the virtual screen 32 without adjustment, The movement of the person in 31) is also output as it is on the virtual screen 32.

일반적으로 화상회의 참여자는 개인별 성향에 따라 미차는 있으나, 장시간 화상회의를 진행하는 과정에서 자세를 바꾸거나 위치를 이동하는 등 다양한 요인으로 인하여 이동할 수 밖에 없으며, 종래기술에서는 도 7에서와 같이, 사용자의 실제 움직임이 인물정보(50)에 그대로 반영되어 최종 구현되는 가상화면(32)에서도 화면상 인물이 이동할 수 밖에 없다.In general, video conference participants have slight differences depending on individual inclinations, but they cannot help but move due to various factors such as changing their posture or moving their location in the process of conducting a video conference for a long time. In the prior art, as shown in FIG. 7, the user The actual movement of is reflected in the person information 50 as it is, and the person on the screen has no choice but to move on the virtual screen 32 finally implemented.

전술한 바와 같이, 가상화면(32)상에서의 인물의 움직임은 실제화면(31)에서의 움직임에 비하여 상당한 시각적 피로감 및 심리적 불안감을 야기하게 되는 바, 당해 화상회의의 몰입도 및 효용을 심각하게 훼손하게 된다.As described above, the movement of the person on the virtual screen 32 causes considerable visual fatigue and psychological anxiety compared to the movement on the real screen 31, which seriously damages the immersion and effectiveness of the video conference will do

이에, 본 발명에서는 도 8에서와 같이, 실제화면(31)상 인물의 움직임에도 불구하고 가상화면(32)에서는 인물이 정위치를 유지한 상태로 출력될 수 있도록 하였으며, 이러한 본 발명은 인터넷을 통하여 상호 직접 연결되거나, 인터넷상에 구축된 웹페이지(21) 또는 이와 연결된 서버(20) 등을 경유하여 상호 간접 연결된 다수의 컴퓨터(10)에 의하여 수행되는 화상회의 방법으로서, 도 9에서와 같이, 컴퓨터(10)에 탑재된 회의프로그램이 실행되어 화상회의가 진행되되, 회의프로그램이 실제화면(31)의 촬상정보에서 인물정보(50)를 추출하고, 회의프로그램이 배경데이터베이스(90)에서 배경정보(40)를 인출하는 실행단계(S10)로 개시된다.Therefore, in the present invention, as shown in FIG. 8, despite the movement of the person on the actual screen 31, on the virtual screen 32, the person can be output while maintaining the correct position. As a video conference method performed by a plurality of computers 10 that are directly connected to each other through, or indirectly connected to each other via a web page 21 built on the Internet or a server 20 connected thereto, as shown in FIG. , The conference program loaded in the computer 10 is executed to conduct a video conference, the conference program extracts the person information 50 from the image information of the actual screen 31, and the conference program extracts the background data from the background database 90. It starts with the execution step (S10) of fetching the information (40).

본 발명은 기본적으로 실제 촬영 영상에서 인물 부분을 추출하고 이를 가상의 배경과 합성하는 회상회의 방법인 바, 도 2 내지 도 4에서 예시한 바와 같이, 컴퓨터(10) 사용자 본인을 촬영한 본인화면(12)에 대하여 적용되는 것이 일반적이라 할 수 있다.The present invention is basically a video conferencing method of extracting a person part from an actual photographed image and synthesizing it with a virtual background, as illustrated in FIGS. 2 to 4, the computer 10 user's own screen ( 12) is generally applicable.

여기서 배경정보(40)는 당 시점(時點)에서 실제 촬영된 배경 영상이 아니라, 사전 촬영 또는 수집되어 배경데이터베이스(90)에 저장된 영상정보로서, 통상 수려한 경치, 격조 높은 실내 공간 또는 기타 사용자의 취향에 따라 선별된 배경이 적용될 수 있다.Here, the background information 40 is not a background image actually captured at the time, but image information pre-photographed or collected and stored in the background database 90, which is usually beautiful scenery, elegant indoor space, or other user's preferences. Depending on the selected background can be applied.

실제화면(31)을 구성하는 촬상영상 중, 인물정보(50)를 추출하는 방식은 전술한 바와 같이, 외곽추출 이미지프로세싱은 물론 기계학습을 통한 이미지 추출 등 다양한 기법이 적용될 수 있으며, 도 9에서와 같이, 인물정보(50)의 추출에 따라 실제화면(31)을 구성하는 촬상영상 중 인물 부분을 제외한 부분은 소거영역(59)으로 설정되어 제거된다.Among the captured images constituting the real screen 31, the method of extracting the person information 50, as described above, may be applied with various techniques such as image processing through image extraction through machine learning as well as outside extraction, and in FIG. As described above, according to the extraction of the person information 50, a portion of the captured image constituting the actual screen 31 excluding the person portion is set as an erase area 59 and removed.

이후, 회의프로그램이 인물정보(50)를 구성하는 전체 화상의 위치를 특정하는 기준점(55)을 추출된 인물정보(50)에 설정하는 설정단계(S21)가 수행되는데, 여기서 인물정보(50)를 구성하는 전체 화상이란 도 9에서 소거영역(59)을 제외한 실제 인물의 촬상 영상 영역을 가리키는 것으로, 그 자체가 순수 인물의 영상이라 할 수 있다.Thereafter, a setting step (S21) is performed in which the conference program sets a reference point 55 for specifying the position of all images constituting the person information 50 in the extracted person information 50, where the person information 50 The entire image constituting ? refers to an area of a captured image of a real person excluding the erased area 59 in FIG.

또한, 인물정보(50)를 구성하는 전체 화상의 위치를 특정하는 기준점(55)은 순수 인물 영상의 영역내 정위치를 유지하는 특성을 가지는 점으로서, 통상 해당 영역의 중심점 즉, 해당 영역의 외곽을 형성하는 폐곡선의 무게중심으로 설정될 수 있는데, 이러한 인물정보(50) 영역을 세분화하여 신체 외곽과 별도로 안면부 외곽을 추출할 수도 있으며 이 경우 안면부 외곽 폐곡선의 무게중심이 기준점(55)으로 적용될 수 있다.In addition, the reference point 55 for specifying the position of the entire image constituting the person information 50 is a point having a characteristic of maintaining a proper position within the area of the pure person image, and is usually the center point of the area, that is, the outer edge of the area. It can be set as the center of gravity of the closed curve forming . By subdividing the area of this person information (50), the facial outline can be extracted separately from the body outline. In this case, the center of gravity of the closed curve outside the face can be applied as the reference point (55). there is.

이어서, 도 9의 하단부에서와 같이, 회의프로그램이 배경정보(40)에 사전 설정된 표적점(45)과 상기 기준점(55)이 일치되도록 배경정보(40)와 인물정보(50)를 중첩하여 가상화면(32)을 생성하는 중첩단계(S22)가 수행됨에 따라, 도 10에서와 같이, 실제화면(31)상 인물의 이동이 발생되어도, 가상화면(32)상 인물의 위치는 화면상 중앙부에 안정적으로 유지될 수 있다.Subsequently, as shown in the lower part of FIG. 9, the meeting program overlaps the background information 40 and the character information 50 so that the target point 45 preset in the background information 40 and the reference point 55 coincide. As the overlapping step (S22) of creating the screen 32 is performed, as shown in FIG. 10, even if the movement of the person on the real screen 31 occurs, the position of the person on the virtual screen 32 is in the center of the screen. can remain stable.

또한, 전술한 실행단계(S10) 내지 중첩단계(S22)는 본 발명 적용 화상회의 진행과정에서 지속적으로 반복 수행됨으로써, 실제 인물의 움직임이 지속되어도 화면상 출력되는 인물 위치가 안정적으로 조정되어 관리될 수 있다.In addition, the above-described execution steps (S10) to overlapping steps (S22) are continuously and repeatedly performed in the process of conducting a video conference applying the present invention, so that the position of a person output on the screen can be stably adjusted and managed even if the movement of a real person continues. can

한편, 도 11 및 도 12는 본 발명 완속형 실시예를 설명한 도면으로서, 본 발명의 완속형 실시예는 전술한 중첩단계(S22) 수행에 따라 인물정보(50)의 기준점(55)이 배경정보(40)의 표적점(45)을 추종하는 과정에서, 과급한 추종으로 인한 출력 가상화면(32)의 급변을 억제하고 일층 평안한 가상화면(32)을 구현할 수 있도록 한 것이다.Meanwhile, FIGS. 11 and 12 are diagrams for explaining a slow-type embodiment of the present invention. In the slow-type embodiment of the present invention, the reference point 55 of the person information 50 is changed to the background information according to the above-described overlapping step (S22). In the process of following the target point 45 of (40), it is possible to suppress the rapid change of the output virtual screen 32 due to supercharged tracking and implement a more comfortable virtual screen 32.

즉, 실제화면(31)상 인물의 이동에 따라 가상화면(32)상 인물이 일시적으로 이동한 후 화면상 중앙부로 위치가 조정되는 과정에서, 급격하게 이동하지 않고 도 11에서와 같이 부드럽게 이동할 수 있도록 한 것으로, 이는 중첩단계(S22)를 수행함에 있어서, 회의프로그램이 배경정보(40)에 사전 설정된 표적점(45)과 상기 기준점(55)이 일치되도록 배경정보(40)와 인물정보(50)를 중첩하여 가상화면(32)을 생성하되, 도 12에서와 같이, 중첩전 기준점(55)과 표적점(45)을 연결하는 선형(線形) 경로상에 다수의 경유점(65)을 설정하고, 기준점(55)이 이들 경유점(65)을 순차 경유하여 표적점(45)과 일치될 수 있도록 함으로써 달성된다.That is, the person on the virtual screen 32 temporarily moves according to the movement of the person on the real screen 31, and then in the process of adjusting the position to the center of the screen, it can move smoothly as shown in FIG. 11 without abrupt movement. In performing the overlapping step (S22), the conference program sets the background information 40 and the person information 50 so that the target point 45 preset in the background information 40 and the reference point 55 coincide. ) to create a virtual screen 32, but as shown in FIG. 12, a plurality of waypoints 65 are set on a linear path connecting the reference point 55 and the target point 45 before overlapping. This is achieved by allowing the reference point 55 to coincide with the target point 45 via these via points 65 sequentially.

여기서 기준점(55)과 표적점(45)을 연결하는 선형 경로란 그 사전적 의미에서와 같이, 기준점(55)과 표적점(45)을 역행(逆行) 없이 연결하는 직선 또는 곡선의 경로로서, 도 12의 도면상 경유점(65)은 기준점(55)과 표적점(45)을 연결하는 수평선상에 설정되었다.Here, the linear path connecting the reference point 55 and the target point 45 is a straight line or curved path connecting the reference point 55 and the target point 45 without retrogression, as in the dictionary meaning, In the drawing of FIG. 12, the waypoint 65 is set on a horizontal line connecting the reference point 55 and the target point 45.

또한, 도 13은 본 발명 표적점(45) 조절형 실시예를 설명한 것으로, 동 실시예의 인물 이동시 화면을 도시하고 있는데, 도시된 바와 같이, 표적점(45)이 사용자의 조작에 따라 이동 설정될 수 있으며, 이로써 사용자는 인물이 중앙에 배치되는 획일적인 화면을 탈피하여 인물의 위치를 자유롭게 변동시킬 수 있고, 이는 전체 화면의 미감(美感) 확보는 물론, 화상회의 수행상 필요한 자료 등을 인물과 동반하여 출력하는 상황에서 유용하게 활용될 수 있다.In addition, FIG. 13 describes an adjustable embodiment of the target point 45 of the present invention, and shows a screen when a person moves in the same embodiment. As shown, the target point 45 can be moved and set according to the user's manipulation. As a result, the user can freely change the position of the person by breaking away from the uniform screen in which the person is placed in the center, which not only secures the aesthetics of the entire screen, but also provides data necessary for conducting a video conference with the person. It can be usefully used in situations where it is accompanied by output.

이러한 본 발명의 표적점(45) 조절형 실시예에서는 도 13에서와 같이, 중첩단계(S22)가 수행된 후, 가상화면(32)상 인물정보(50)에 대응되는 객체가 조작됨에 따라, 배경정보(40)상 표적점(45) 위치가 변경되는데, 도시된 실시예에서는 사용자가 마우스 커서를 인물정보(50)가 출력되는 영역에 위치시킨 상태에서 드래그하는 조작을 통하여 표적점(45)을 이동시키고 있으며, 이 밖에도 별도의 마커 또는 아이콘을 구현하고 이를 조작하는 등 다양한 방식이 적용될 수 있다.In the target point 45 adjustable embodiment of the present invention, as shown in FIG. 13, after the overlapping step (S22) is performed, as the object corresponding to the person information 50 on the virtual screen 32 is manipulated, The location of the target point 45 on the background information 40 is changed. In the illustrated embodiment, the user places the mouse cursor in the area where the character information 50 is output and drags the target point 45 through a drag operation. In addition, various methods such as implementing and manipulating a separate marker or icon can be applied.

10 : 컴퓨터
11 : 화자화면
12 : 본인화면
13 : 청자화면
20 : 서버
21 : 웹페이지
31 : 실제화면
32 : 가상화면
40 : 배경정보
45 : 표적점
50 : 인물정보
55 : 기준점
59 : 소거영역
65 : 경유점
90 : 배경데이터베이스
S10 : 실행단계
S21 : 설정단계
S22 : 중첩단계
10 : computer
11: Talker screen
12 : My screen
13: celadon screen
20: server
21: web page
31: actual screen
32: virtual screen
40: background information
45: target point
50: person information
55: reference point
59: erase area
65: transit point
90: background database
S10: Execution step
S21: Setting step
S22: nesting step

Claims (2)

인터넷을 통하여 연결된 다수의 컴퓨터(10)에 의하여 수행되는 화상회의 방법에 있어서,
컴퓨터(10)에 탑재된 회의프로그램이 실제화면(31)의 촬상정보에서 인물정보(50)를 추출하고, 배경데이터베이스(90)에서 배경정보(40)를 인출하는 실행단계(S10)와;
회의프로그램이 인물정보(50)를 구성하는 전체 화상의 위치를 특정하는 기준점(55)을 설정하는 설정단계(S21)와;
회의프로그램이 배경정보(40)에 사전 설정된 표적점(45)과 상기 기준점(55)이 일치되도록 배경정보(40)와 인물정보(50)를 중첩하여 가상화면(32)을 생성하는 중첩단계(S22)로 이루어짐을 특징으로 하는 인물 위치 조정형 화상회의 방법.
In the video conference method performed by a plurality of computers 10 connected through the Internet,
An execution step (S10) of extracting person information 50 from the image information of the actual screen 31 by a conference program loaded in the computer 10 and fetching the background information 40 from the background database 90;
a setting step (S21) of setting a reference point 55 for specifying the location of all images constituting the person information 50 by the conference program;
An overlapping step in which the conference program creates a virtual screen 32 by overlapping the background information 40 and the person information 50 so that the target point 45 preset in the background information 40 and the reference point 55 coincide ( S22) A person position adjustment type video conference method characterized in that consisting of.
청구항 1에 있어서,
상기 중첩단계(S22)가 수행된 후, 가상화면(32)상 인물정보(50)에 대응되는 객체가 조작됨에 따라, 배경정보(40)상 표적점(45) 위치가 변경됨을 특징으로 하는 인물 위치 조정형 화상회의 방법.
The method of claim 1,
After the overlapping step (S22) is performed, as the object corresponding to the person information 50 on the virtual screen 32 is manipulated, the position of the target point 45 on the background information 40 is changed. Positioning video conferencing method.
KR1020220113124A 2021-09-13 2022-09-06 Portrait gradual positioning type remote meeting method KR102566072B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220113124A KR102566072B1 (en) 2021-09-13 2022-09-06 Portrait gradual positioning type remote meeting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210122107A KR102467959B1 (en) 2021-09-13 2021-09-13 Portrait positioning type remote meeting method
KR1020220113124A KR102566072B1 (en) 2021-09-13 2022-09-06 Portrait gradual positioning type remote meeting method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210122107A Division KR102467959B1 (en) 2021-09-13 2021-09-13 Portrait positioning type remote meeting method

Publications (2)

Publication Number Publication Date
KR20230039555A true KR20230039555A (en) 2023-03-21
KR102566072B1 KR102566072B1 (en) 2023-08-11

Family

ID=84233279

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210122107A KR102467959B1 (en) 2021-09-13 2021-09-13 Portrait positioning type remote meeting method
KR1020220113124A KR102566072B1 (en) 2021-09-13 2022-09-06 Portrait gradual positioning type remote meeting method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210122107A KR102467959B1 (en) 2021-09-13 2021-09-13 Portrait positioning type remote meeting method

Country Status (1)

Country Link
KR (2) KR102467959B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511535B1 (en) * 2022-12-30 2023-03-17 주식회사 유비케이솔루션 video conferencing system
CN117201724A (en) * 2023-10-07 2023-12-08 东莞市智安家科技有限公司 Video conference processing method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020060495A (en) * 2001-01-11 2002-07-18 윤종용 Video terminal apparatus having displaying virtual background and implementing method thereof
KR20180062045A (en) * 2016-11-30 2018-06-08 에릭슨엘지엔터프라이즈 주식회사 Method and apparatus for realizing virtual conference

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020060495A (en) * 2001-01-11 2002-07-18 윤종용 Video terminal apparatus having displaying virtual background and implementing method thereof
KR20180062045A (en) * 2016-11-30 2018-06-08 에릭슨엘지엔터프라이즈 주식회사 Method and apparatus for realizing virtual conference

Also Published As

Publication number Publication date
KR102566072B1 (en) 2023-08-11
KR102467959B1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
KR102566072B1 (en) Portrait gradual positioning type remote meeting method
US11729342B2 (en) Designated view within a multi-view composited webcam signal
JP6966421B2 (en) Composite and scaling angle-separated subscenes
US9792954B2 (en) Information processing apparatus and recording medium
US8237771B2 (en) Automated videography based communications
US8274544B2 (en) Automated videography systems
US8441515B2 (en) Method and apparatus for minimizing acoustic echo in video conferencing
WO2017215295A1 (en) Camera parameter adjusting method, robotic camera, and system
US8749607B2 (en) Face equalization in video conferencing
US10079995B1 (en) Methods and systems for generating resolution based content
US20080180519A1 (en) Presentation control system
WO2014034556A1 (en) Image processing apparatus and image display apparatus
TW201901527A (en) Video conference and video conference management method
CN101273351A (en) Face annotation in streaming video
CN111294550A (en) System and method for implementing a personal camera adapted to its surroundings
CN108683874B (en) Method for focusing attention of video conference and storage device
US11405587B1 (en) System and method for interactive video conferencing
CN110673811B (en) Panoramic picture display method and device based on sound information positioning and storage medium
CN117897930A (en) Streaming data processing for hybrid online conferencing
CN108320331B (en) Method and equipment for generating augmented reality video information of user scene
US11496675B2 (en) Region of interest based adjustment of camera parameters in a teleconferencing environment
US11729489B2 (en) Video chat with plural users using same camera
CN112887653B (en) Information processing method and information processing device
WO2016206468A1 (en) Method and device for processing video communication image
CN117296308A (en) Smart content display for network-based communications

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant