KR102077887B1 - 비디오 회의 강화 - Google Patents

비디오 회의 강화 Download PDF

Info

Publication number
KR102077887B1
KR102077887B1 KR1020167021204A KR20167021204A KR102077887B1 KR 102077887 B1 KR102077887 B1 KR 102077887B1 KR 1020167021204 A KR1020167021204 A KR 1020167021204A KR 20167021204 A KR20167021204 A KR 20167021204A KR 102077887 B1 KR102077887 B1 KR 102077887B1
Authority
KR
South Korea
Prior art keywords
functions
camera
controls
features
settings
Prior art date
Application number
KR1020167021204A
Other languages
English (en)
Other versions
KR20160105872A (ko
Inventor
세르게 라차펠레
젠스 에프. 오자
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Publication of KR20160105872A publication Critical patent/KR20160105872A/ko
Application granted granted Critical
Publication of KR102077887B1 publication Critical patent/KR102077887B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • H04N5/2357
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

구현들은 일반적으로 비디오 회의를 강화하는 것에 관련된다. 일부 구현들에서, 방법은 제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정하는 단계를 포함한다. 본 방법은 하나 이상의 특징에 기초하여 제1 카메라의 하나 이상의 기능을 결정하는 단계를 더 포함한다. 본 방법은 브라우저가 제1 카메라의 하나 이상의 기능을 제어할 수 있게 하는 단계- 브라우저는 제1 카메라에 대하여 원격임 -를 더 포함한다.

Description

비디오 회의 강화{ENHANCING VIDEO CONFERENCES}
<관련 출원에 대한 상호 참조>
본 출원은 2014년 2월 3일자 출원된 미국 특허 출원 14/171,086호에 대한 우선권을 청구하고, 이는 의도된 모든 것에 대해 본 출원에서 전부가 제시되는 바와 같이 참조로 본 명세서에 의해 원용된다.
<배경기술>
비디오 회의는 참가자들이 서로 실시간으로 지리적으로 산재된 위치들에 걸쳐 비디오 및 오디오 콘텐츠를 공유하는 것을 가능하게 한다. 각각의 위치에서의 통신 디바이스는 통상적으로 비디오 및 오디오 스트림들을 송신하기 위해 비디오 카메라 및 마이크로폰을 사용하고, 수신된 비디오 및 오디오 스트림을 재생하기 위해 비디오 모니터와 스피커를 사용한다. 비디오 회의는 비디오 및 오디오 스트림의 디지털 압축을 포함하고, 이들은 한 위치에서부터 다른 위치로 네트워크를 통해 실시간으로 전송된다. 통신 디바이스들은 비디오 및 오디오 스트림들의 압축 및 압축해제를 수행하고, 네트워크를 통해 데이터 연결을 유지한다.
구현들은 일반적으로 비디오 회의를 강화하는 것에 관련된다. 일부 구현들에서, 방법은 제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정하는 단계를 포함한다. 본 방법은 하나 이상의 특징에 기초하여 제1 카메라의 하나 이상의 기능을 결정하는 단계를 더 포함한다. 본 방법은 브라우저가 제1 카메라의 하나 이상의 기능을 제어할 수 있게 하는 단계- 브라우저는 제1 카메라에 대해 원격임 -를 더 포함한다.
본 방법과 더욱 관련하여, 일부 구현들에서, 하나 이상의 기능은 노출, 콘트라스트, 화이트 밸런스, 온도, 및 조리개 중 하나 이상에 대한 제어들을 포함한다. 일부 구현들에서, 하나 이상의 기능은 캡처 레이트 및 플리커 중 하나 이상에 대한 제어들을 포함한다. 일부 구현들에서, 하나 이상의 기능은 패닝(panning) 및 주밍(zooming) 중 하나 이상에 대한 제어들을 포함한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 단계는, 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응함 -를 포함한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 단계는, 비디오 스트림과 관련된 하나 이상의 비디오 특징을 분석하는 단계, 및 하나 이상의 비디오 특징의 분석에 기초하여 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응함 -를 포함한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 단계는, 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응하고, 하나 이상의 제어는 하나 이상의 기능과 관련된 하나 이상의 설정에 대응함 -를 포함한다. 일부 구현들에서, 제1 카메라는 제1 사용자와 관련되고, 브라우저는 제2 사용자와 관련된다.
일부 구현들에서, 방법은 제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정하는 단계를 포함한다. 본 방법은 하나 이상의 특징에 기초하여 제1 카메라의 하나 이상의 기능을 결정하는 단계- 하나 이상의 기능은 캡처 레이트, 플리커, 화이트 밸런스, 노출, 콘트라스트, 온도, 및 조리개 중 하나 이상에 대한 제어들을 포함함 -를 더 포함한다. 본 방법은 브라우저가 제1 카메라의 하나 이상의 기능을 제어할 수 있게 하는 단계- 브라우저는 제1 카메라에 대하여 원격임 -를 더 포함하고, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 단계는 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응함 -를 포함한다.
본 방법과 더욱 관련하여, 일부 구현들에서, 하나 이상의 기능은 패닝 및 주밍 중 하나 이상에 대한 제어들을 포함한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 단계는, 비디오 스트림과 관련된 하나 이상의 비디오 특징을 분석하는 단계; 및 하나 이상의 비디오 특징의 분석에 기초하여 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응함 -를 포함한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 단계는 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응하고, 하나 이상의 제어는 하나 이상의 기능과 관련된 하나 이상의 설정에 대응함 -를 포함한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 단계는 하나 이상의 기능과 관련된 하나 이상의 설정을 무효화하는 단계를 포함한다.
일부 구현들에서, 시스템은, 하나 이상의 프로세서, 및 하나 이상의 프로세서에 의한 실행을 위해 하나 이상의 유형의 매체 내에 인코딩되는 로직을 포함한다. 실행될 때, 로직은, 제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정하는 단계; 하나 이상의 특징에 기초하여 제1 카메라의 하나 이상의 기능을 결정하는 단계; 및 브라우저가 제1 카메라의 하나 이상의 기능을 제어할 수 있게 하는 단계- 브라우저는 제1 카메라에 대하여 원격임 -를 포함하는 동작들을 수행하도록 동작가능하다.
시스템과 더욱 관련하여, 일부 구현들에서, 하나 이상의 기능은 노출, 콘트라스트, 화이트 밸런스, 온도, 및 조리개 중 하나 이상에 대한 제어들을 포함한다. 일부 구현들에서, 하나 이상의 기능은 캡처 레이트 및 플리커 중 하나 이상에 대한 제어들을 포함한다. 일부 구현들에서, 하나 이상의 기능은 패닝 및 주밍 중 하나 이상에 대한 제어들을 포함한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하도록, 로직은 실행될 때 브라우저에서의 하나 이상의 제어를 제공하는 단계를 포함하는 동작들을 수행하도록 더욱 동작가능하고, 하나 이상의 제어는 하나 이상의 기능에 대응한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하도록, 로직은 실행될 때, 비디오 스트림과 관련된 하나 이상의 비디오 특징을 분석하는 단계; 및 하나 이상의 비디오 특징의 분석에 기초하여 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응함 -를 포함하는 동작들을 수행하도록 더욱 동작가능하다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하도록, 로직은 실행될 때, 브라우저에서의 하나 이상의 제어를 제공하는 단계- 하나 이상의 제어는 하나 이상의 기능에 대응하고, 하나 이상의 제어는 하나 이상의 기능과 관련된 하나 이상의 설정에 대응함 -를 포함하는 동작들을 수행하도록 더욱 동작가능하다.
도 1은 본 명세서에 설명되는 구현들을 구현하는데 사용될 수 있는 예시적인 네트워크 환경의 블록도를 도시한다.
도 2는 일부 구현들에 따른, 비디오 회의를 강화하기 위한 예시적인 간략화된 흐름도를 도시한다.
도 3은 일부 구현들에 따른, 비디오 회의를 강화하기 위한 예시적인 간략화된 환경을 도시한다.
도 4a는 일부 구현들에 따른, 예시적인 비디오 스트림을 도시한다.
도 4b는 일부 구현들에 따른, 예시적인 비디오 스트림을 도시한다.
도 5는 일부 구현들에 따른, 예시적인 간략화된 사용자 인터페이스를 도시한다.
도 6은 일부 구현들에 따른, 예시적인 간략화된 사용자 인터페이스를 도시한다.
도 7은 일부 구현들에 따른, 예시적인 간략화된 사용자 인터페이스를 도시한다.
도 8은 본 명세서에 설명되는 구현들을 구현하는데 사용될 수 있는 예시적인 서버 디바이스의 블록도를 도시한다.
본 명세서에 설명되는 구현들은 비디오 회의를 강화한다. 다양한 구현들에서, 시스템은 비디오 스트림을 제공하는 제1 카메라의 하나 이상의 기능을 결정하는데, 제1 카메라는 제1 사용자와 관련된다. 일부 구현들에서, 이러한 기능들은 캡처 레이트, 플리커, 화이트 밸런스, 노출, 콘트라스트, 온도, 조리개, 패닝, 및 주밍 중 하나 이상에 대한 제어들을 포함할 수 있다.
시스템은 다음으로 브라우저가 제1 카메라의 하나 이상의 기능을 제어할 수 있게 하는데, 브라우저는 제2 사용자와 관련되고, 브라우저는 제1 카메라에 대하여 원격이다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 것은, 비디오 스트림과 관련된 하나 이상의 비디오 특징을 분석하는 것, 및 하나 이상의 비디오 특징의 분석에 기초하여 브라우저에서의 하나 이상의 제어를 제공하는 것을 포함하고, 하나 이상의 제어는 하나 이상의 기능에 대응하고, 하나 이상의 제어는 하나 이상의 기능과 관련된 하나 이상의 설정에 대응한다. 일부 구현들에서, 브라우저가 하나 이상의 기능을 제어할 수 있게 하는 것은 하나 이상의 기능과 관련된 하나 이상의 설정을 무효화하는 것을 포함한다.
도 1은 본 명세서에 설명되는 구현들을 구현하는데 사용될 수 있는 예시적인 네트워크 환경(100)의 블록도를 도시한다. 일부 구현들에서, 네트워크 환경(100)은 서버 디바이스(104) 및 소셜 네트워크 데이터베이스(106)를 포함하는 시스템(102)을 포함한다. 다양한 구현들에서, 용어 시스템(102) 및 문구 "소셜 네트워크 시스템"은 교환가능하게 사용될 수 있다. 네트워크 환경(100)은 시스템(102)을 통해 서로 통신할 수 있는 클라이언트 디바이스들(110, 120, 130, 140)을 또한 포함한다. 네트워크 환경(100)은 네트워크(150)를 또한 포함한다.
도시의 편의상, 도 1은 시스템(102), 서버 디바이스(104) 및 소셜 네트워크 데이터베이스(106) 각각에 대해 하나의 블록을 보여주고, 클라이언트 디바이스들(110, 120, 130, 140)에 대해 4개의 블록을 보여준다. 블록들 102, 104 및 106은 다수의 시스템들, 서버 디바이스들, 및 소셜 네트워크 데이터베이스들을 나타낼 수 있다. 또한, 임의 수의 클라이언트 디바이스들이 존재할 수 있다. 다른 구현들에서, 네트워크 환경(100)은 도시된 컴포넌트들 모두를 갖지는 않을 수 있고/있거나, 본 명세서에 도시된 것들 대신에, 또는, 이외에도, 다른 타입들의 엘리먼트들을 포함하는 다른 엘리먼트들을 가질 수 있다.
다양한 구현들에서, 사용자들(U1, U2, U3, U4)은 각자의 클라이언트 디바이스들(110, 120, 130, 140)을 사용하여 서로 통신할 수 있다. 예를 들어, 사용자들(U1, U2, U3, U4)은 다수 사용자 비디오 회의에서 서로 상호작용할 수 있는데, 여기서 각자의 클라이언트 디바이스들(110, 120, 130, 140)은 미디어 스트림들을 서로에게 전송한다.
본 명세서에 설명되는 다양한 구현들에서, 시스템(102)의 프로세서는 본 명세서에 설명되는 엘리먼트들(예를 들어, 브라우저 제어 버튼들 등)이 하나 이상의 디스플레이 스크린 상의 사용자 인터페이스에 디스플레이되게 한다.
다양한 구현들에서, 시스템(102)은 비디오 회의를 강화하는 것에 인식 알고리즘을 이용할 수 있다. 인식 알고리즘들의 예시적인 구현들이 이하 보다 상세히 설명된다.
도 2는 일부 구현들에 따른, 비디오 회의를 강화하기 위한 예시적인 간략화된 흐름도를 도시한다. 도 1 및 2 양자 모두를 참조하면, 방법은 블록 202에서 착수되며, 여기서 시스템(102)은 제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정한다. 다양한 구현들에서, 하나 이상의 특징은 비디오의 기본 양상들을 포함할 수 있다. 예를 들어, 시스템(102)은 노출, 노출 시간, 휘도, 콘트라스트, 채도, 선명도, 화이트 밸런스, 온도(예를 들어, 화이트 밸런스 온도), 조리개 등에 대한 값들을 결정할 수 있다.
다양한 구현들에서, 하나 이상의 특징은 비디오의 보다 고급의 양상들을 포함할 수 있다. 예를 들어, 시스템(102)은 전력 선 주파수(안티-플리커), 플리커, 캡처 레이트, 백라이트 보상, 초점 등에 대한 값들을 결정할 수 있다.
다양한 구현들에서, 시스템(102)은 비디오 스트림에서의 거동을 검출하고, 이러한 특징들 중 임의의 하나 이상이 최적이 아닌 곳을 검출한다. 예를 들어, 일부 구현들에서, 시스템(102)은 비디오 스트림의 채도가 벗어나는지, 비디오 스트림에 플리커가 존재하는지 등을 결정할 수 있다. 플리커 예에서, 일부 국가들에서의 전기는 한 주파수(예를 들어, 50 헤르츠(Hz))에서 작동될 수 있지만 주어진 카메라는 다른 주파수(예를 들어, 60 Hz)로 설정될 수 있고, 이는 플리커의 원인이 될 수 있다. 시스템(102)은 이러한 플리커 특징들을 검출한다. 이하 설명되는 바와 같이, 시스템(102)은 플리커를 바로잡기 위해 카메라의 주파수 설정들을 원격으로 수정하기 위한 제어들을 사용자에게 제공할 수 있고 및/또는 시스템(102)은 플리커를 바로잡기 위해 이러한 설정들을 자동으로 수정할 수 있다.
다양한 구현들에서, 시스템(102)은 임의의 적합한 위치에서 이미지 처리에 기초하여 비디오 스트림의 하나 이상의 특징을 결정할 수 있다. 예를 들어, 일부 구현들에서, 시스템(102)은 시스템(102)에 로컬로 또는 시스템(102)에 액세스가능한 임의의 다른 서버에서 이러한 처리를 수행할 수 있다. 일부 구현들에서, 시스템(102)은 일부 이미지 처리가 임의의 적합한 브라우저에서 발생하게 할 수 있다. 예를 들어, 이미지들이 비디오 회의와 관련된 브라우저들 중 임의의 하나 이상에서의 프로세스이면, 시스템(102)은 이러한 브라우저들 중 임의의 하나 이상으로부터의 이러한 데이터를 액세스할 수 있고, 다음으로 비디오 스트림의 특징들을 결정하기 위해 이러한 데이터를 분석할 수 있다.
일부 구현들에서, 하나 이상의 특징은 비디오에서의 특색들 및/또는 엘리먼트들을 포함할 수 있다. 예를 들어, 시스템(102)은 비디오에서 얼굴들을 오브젝트들로서의 얼굴들인지 또는 특정 사용자들과 관련된 특정 얼굴들인지 검출할 수 있다. 일부 구현들에서, 시스템(102)은 비디오에서 특정 얼굴들의 피부색을 검출할 수 있다.
특정 특징들 및 특징들의 특정 조합은 구체적 구현에 의존하여 다를 것이다. 시스템(102)은 본 명세서에 설명되는 특징을 검출하기에 적합한 임의의 인식 알고리즘을 사용할 수 있다. 인식 알고리즘들의 예시적인 구현들이 이하 보다 상세히 설명된다.
블록 204에서, 시스템(102)은 하나 이상의 특징에 기초하여 제1 카메라의 하나 이상의 기능을 결정한다. 예를 들어, 다양한 구현들에서, 시스템(102)은 비디오 회의에서 비디오 스트림을 제공하는 각각의 카메라와 관련된 프로그래밍 인터페이스(API) 기능들을 점검하는 것에 의해 기능들을 결정한다.
일부 구현들에서, 시스템(102)은 비디오 회의에서 비디오 스트림을 제공하는 각각의 카메라와 관련된 로우-레벨 API 기능들을 점검하는 것에 의해 기능들을 결정한다. 이러한 로우-레벨 API 기능들은 시스템(102)이 프리셋들, 네이티브 이벤트들 등을 포함하는 미세 설정들을 제어할 수 있게 한다.
다양한 구현들에서, 하나 이상의 기능은 비디오의 기본 양상들에 대한 제어를 포함할 수 있다. 예를 들어, 시스템(102)은 노출, 노출 시간, 휘도, 콘트라스트, 채도, 선명도, 화이트 밸런스, 온도(예를 들어, 화이트 밸런스 온도), 조리개 등에 대해 이용가능한 제어들을 결정할 수 있다. 다양한 구현들에서, 하나 이상의 기능은 비디오의 보다 고급의 양상들에 대한 제어들을 포함할 수 있다. 예를 들어, 시스템(102)은 전력 선 주파수(안티-플리커), 플리커, 캡처 레이트, 백라이트 보상, 초점 등에 대한 값들을 결정할 수 있다. 위에 설명된 플리커 예에서, 시스템(102)은 플리커(예를 들어, 안티-플리커)와 관련된 임의의 설정들이 로우-레벨 API를 통한 수정에 이용가능한지 결정할 수 있다.
다양한 구현들에서, 하나 이상의 기능은 비디오 효과들에 대한 하나 이상의 제어를 포함할 수 있다. 예를 들어, 일부 구현들에서, 시스템(102)은 패닝, 주밍, 틸트 등에 대한 기능들을 결정할 수 있다.
다양한 구현들에서, 시스템(102)은 (예를 들어, 블록 202로부터) 결정된 특징들에 기초하여 본 명세서에 설명되는 기능들을 결정한다. 일부 구현들에서, 시스템(102)은 특정 특징에 기초하여 특정 기능을 구체적으로 결정할 수 있다.
예를 들어, 한 시나리오에서, 시스템(102)은 비디오 스트림에서의 특정 피부색을 검출할 수 있다. 그 특정 결정은 로우-레벨 API 기능들로부터 패닝, 주밍, 틸트 등이 이용가능한지 결정하기 위한 트리거 시스템(102)일 수 있다. 유사하게, 시스템(102)은 얼굴들 등과 같은 오브젝트들의 검출에 기초하여 이러한 로우-레벨 API 기능들(예를 들어, 패닝, 주밍, 틸트 등)을 결정할 수 있다.
블록 206에서, 시스템(102)은 브라우저가 제1 카메라의 하나 이상의 기능을 제어할 수 있게 하는데, 브라우저는 제1 카메라에 대하여 원격이다. 다양한 구현들에서, 제1 카메라는 제1 사용자와 관련되고, 브라우저는 제2 사용자와 관련된다. 본 명세서에 설명되는 다양한 구현들에서, 카메라 설정의 제어는 실시간으로 또는 데이터베이스에 저장된 설정들에 기초하여 수행될 수 있다. 어느 경우에도, 제어 데이터는 이송 프로토콜(HTTP), WebRTC(Web Real-Time Communication), 데이터 채널 API 등과 같은 임의의 적합한 데이터 접속 프로토콜을 통해 제어되는 카메라와 관련된 브라우저에 전달될 수 있다.
본 명세서의 다양한 구현들에서 설명되는 바와 같이, 제1 카메라의 기능들의 제어는, 제어들의 사용자 제공 조작에 의해, 제어들을 자동으로 조작하는 시스템(102)에 의해, 또는 데이터베이스에 저장된 프리셋 설정들에 의해 수행될 수 있다. 다음으로 시스템(102)은 적절한 제어 신호들이 주어진 카메라와 관련된 브라우저 및/또는 다른 소프트웨어에 푸시되게 할 수 있다. 다음으로 브라우저 또는 소프트웨는 결국 카메라 하드웨어의 직접 제어를 위한 또는 비디오 스트림을 수정한 소프트웨어에 대한 제어를 위한 제어 신호들을 카메라에 푸시할 수 있다.
도 3은 일부 구현들에 따른, 비디오 회의를 강화하기 위한 예시적인 간략화된 환경(300)을 도시한다. 도시된 바와 같이, 환경(300)은 서버들(302), 로우-레벨 API(306)와 관련된 제1 브라우저(304), 제1 카메라(308)를 포함한다. 환경(300)은 또한 로우-레벨 API(316)와 관련된 제2 브라우저(314), 및 제2 카메라(318)를 포함한다. 다양한 구현들에서, 도 1의 시스템(102)은 서버들(302) 중에 있을 수 있다.
다양한 구현들에서, 제1 카메라(308)는 제1 사용자와 관련된다. 설명이 용이하도록, 다양한 예시적 구현들은 제1 카메라(308)의 맥락에서 본 명세서에 설명된다. 이러한 구현들은 또한 수반되는 각각의 카메라를 다수 사용자 비디오 회의에서 적용한다. 예를 들어, 이러한 구현들은 제2 사용자와 관련된 제2 카메라(318)에 적용될 수 있다. 이러한 예에서, 제2 카메라(318)를 제어하는 브라우저는 브라우저(304), 또는 제2 카메라(318)에 대해 원격인 임의의 브라우저일 수 있으며, 여기서 브라우저(304)는 제1 사용자와 관련된다. 본 명세서에 설명되는 다양한 구현들은 임의 타입의 브라우저에 적용될 수 있다. 또한, 구현들이 브라우저들과 연계하여 본 명세서에 설명되지만, 이러한 구현들은 또한 비디오 회의를 위한 용도일 수 있는 다른 더 소프트한 애플리케이션들에 적용된다.
도 1 및 3을 참조하면, 다양한 구현들에서, 브라우저(314)가 원격 카메라(308)의 하나 이상의 기능을 제어할 수 있게 하도록, 시스템(102)은 브라우저(314)에서의 하나 이상의 제어를 제공하고, 이러한 하나 이상의 제어는 하나 이상의 기능에 대응한다. 다양한 구현들에서, 시스템(102)은 시스템(102)이 로우-레벨 API(306)의 이용가능한 기능들을 결정하는 것과 실시간으로 브라우저(314)에 이러한 제어들이 디스플레이되게 한다. 다시 말해서, 이전에 브라우저(314)에 디스플레이되지 않은 제어들은 이용가능한 기능들을 결정한 이후 디스플레이된다. 설명이 용이하도록, 제어들은 브라우저(314)의 맥락에서 설명된다. 다양한 구현들에서, 시스템(102)은 이러한 제어들이 특정 비디오 회의에서 다른 사용자와 관련되는 다른 브라우저들(도시되지 않음)에 디스플레이되게 할 수 있다. 이러한 다른 브라우저들은 또한 브라우저(304)를 포함할 수 있다.
도 4a는 일부 구현들에 따른, 예시적인 비디오 스트림(400)을 도시한다. 도시된 바와 같이, 비디오 스트림(400)은 얼굴(402)을 디스플레이한다. 이러한 특정 예시적 구현들에서, 비디오 스트림은 다수의 비디오 스트림들을 디스플레이할 수 있는 브라우저(314)에 디스플레이되는 비디오 스트림을 나타낼 수 있다.
다양한 구현들에서, 시스템(102)은 본 명세서에 설명되는 바와 같이 적절한 얼굴 인식 알고리즘을 사용하여 얼굴(402)을 검출할 수 있다. 시스템(102)은 비디오에서 특정 얼굴들의 피부색을 검출하는 것에 의해 얼굴(402)을 검출할 수 있다. 설명이 용이하도록, 하나의 얼굴(402)이 도시된다. 다른 예시적 구현들에서는, 시스템(102)이 검출하는 주어진 비디오 스트림에 다수의 얼굴들이 존재할 수 있다.
다양한 구현들에서, 브라우저(314)가 하나 이상의 기능을 제어할 수 있게 하도록, 시스템(102)은 (도 2의 블록 202에서 설명된 바와 같이) 카메라(308)에 의해 제공되는 비디오 스트림과 관련된 하나 이상의 비디오 특징을 분석한다. 이러한 특정 예에서, 특징들은 얼굴 및/또는 피부색을 포함한다. 다른 특징들은 본 명세서에 설명되는 다른 특징과 같을 수 있다. 다음으로 시스템(102)은 비디오 특징들의 분석에 기초하여 브라우저(314)에서의 하나 이상의 제어를 제공한다. 본 명세서에 나타나는 바와 같이, 하나 이상의 제어는 하나 이상의 결정된 기능에 대응한다. 다양한 구현들에서, 하나 이상의 제어는 하나 이상의 기능과 관련된 하나 이상의 설정에 대응한다. 다양한 구현들에서, 브라우저(314)가 하나 이상의 기능을 제어할 수 있게 하도록, 시스템(102)은 하나 이상의 기능과 관련된 카메라(308)의 하나 이상의 설정을 무효화한다.
도 4b는 일부 구현들에 따른, 예시적인 비디오 스트림(400)을 도시한다. 도 4a와 유사하게, 도 4b는 비디오 스트림(400) 및 얼굴(402)을 보여준다. 도 4a와 4b를 비교하면, 도 4a로부터의 동일 사용자는 (카메라(308)에 의해 제공되는) 비디오 스트림(400) 내에 패닝(pan)하기 위해 시스템(102)에 의해 제공되는 브라우저(314)에서의 제어들을 사용할 수 있다. 예를 들어, 도 4a를 참조하면, 얼굴(402)은 비디오 스트림(400)의 중앙에 배치된다. 구현들은 임의의 적합한 제어 능력들(예를 들어, UCV(universal serial bus video class) 등)을 사용하여 카메라(308)를 제어할 수 있다. 도 4b를 참조하면, 얼굴(402)은 브라우저(318)에서의 제어들에 의해 비디오 스트림(400)의 좌하로 이동되거나 또는 패닝된다.
시스템(102)이 주어진 비디오 스트림에서의 다수의 얼굴들을 검출하는 일부 구현들에서, 시스템(102)은, 이러한 검출에 기초하여, 팬, 틸트, 및/또는 줌과 같은 이용가능한 기능들을 더 검출할 수 있다. 다음으로 시스템(102)은 다른 참가자들과 동일한 방에 있는 단일 참가자에게 초점을 맞추기 위해 팬, 틸트, 및/또는 줌하도록 비디오 스트림을 캡처하는 카메라를 조작하기 위한 제어들을 제공할 수 있다. 일부 구현들에서, 시스템(102)은 카메라가 얼굴 인식에 기초하여 단일 참가자에 대해 팬, 틸트, 및/또는 줌하게 하도록 제어들을 자동으로 조작할 수 있다. 일부 구현들에서, 시스템(102)은 또한 원격 사용자가 단일 참가자에게 초점을 맞추기 위해 카메라로 하여금 팬, 틸트, 및/또는 줌하게 하는 제어들을 조작할 수 있게 할 수 있다.
일부 구현들에서, 시스템(102)은 특정 참가자에 대해 팬, 틸트, 및/또는 줌하기에 적합한 다른 인식 알고리즘들을 사용할 수 있다. 예를 들어, 시스템(102)은 잠재적으로 어느 참가자에게 초점을 맞출 것인지 결정하기 위해 입술 움직임을 검출하는 인식 알고리즘을 사용할 수 있다. 일부 구현들에서는, 마이크로폰들 및/또는 음향 분석의 사용을 통해, 시스템(102)은 방에 있는 특정 참가자에 대해 패닝, 틸팅, 및/또는 주밍하기 위한 제어들을 가능하게 할 수 있다. 예를 들어, 시스템(102)은 제어들이 카메라를 가장 소리가 큰 신호를 향해 움직일 수 있게 할 수 있다. 일부 구현들에서, 시스템(102)은 다수의 마이크로폰들을 사용하여 정보를 3각 측량할 수 있다. 예시적인 제어들이 도 5, 6 및 7과 관련하여 이하 보다 상세히 설명된다.
본 명세서에 설명되는 바와 같이, 시스템(102)은 결정된 특징들에 기초하여 카메라 설정들에 대해 자동으로 변경들을 적용할 수 있다. 예를 들어, 얼굴 인식에 의한 및/또는 피부색의 검출에 의한 얼굴의 검출에 기초하여, 시스템(102)은 비디오 스트림이 말하는 사람의 머리를 줌 인하게 및/또는 추종하게 할 수 있다. 이러한 주밍 및/또는 추종은 카메라의 하드웨어 제어 및/또는 비디오 스트림의 소프트웨어 제어를 사용하여 수행될 수 있다.
일부 구현들에서, 시스템(102)은 제어들이 비디오 스트림에서 주어진 오브젝트 또는 엘리먼트에 줌인할 수 있게 할 수 있다. 예를 들어, 일부 구현들에서, 시스템(102)은 얼굴(402)과 같은 주어진 얼굴을 검출하고 다음으로 얼굴(402)에 초점을 맞추기 위해/줌인하기 위한 브라우저(314)에서의 제어들을 제공할 수 있다. 일부 구현들에서, 시스템(102)은 카메라(308)가 고-해상도 모드에서 기록하고 다음으로 줌 제어들이 얼굴(402)에 집중할 수 있게 할 수 있다. 일부 구현들에서, 시스템(102)은 사용자(예를 들어, 브라우저(318)와 관련된 사용자))가 줌하고자 하는 곳을 표시하도록 직사각형을 적용할 수 있게 할 수 있다. 디스플레이가 터치-스크린인 일부 구현들에서, 시스템(102)은 사용자가 패닝, 틸팅 등과 같은 다른 기능들을 수행할 수 있게 할 뿐만 아니라, 사용자의 손가락들을 사용하여 줌 인 및 아웃할 수 있게 할 수 있다.
다양한 구현들에서, 설정에서의 변경들은 하드웨어, 소프트웨어 또는 이들의 조합을 사용하여 비디오 스트림을 수정할 수 있다. 일부 구현들에서, 하드웨어가 제어되고 있으면(예를 들어, 카메라(308)의 하드웨어), 변경들은 비디오 회의와 관련된 모든 브라우저들에서 보여질 수 있다. 일부 구현들에서, 소프트웨어가 (예를 들어, 임의의 주어진 브라우저에서) 제어되고 있으면, 변경들은 임의의 하나 이상의 브라우저에서(예를 들어, 브라우저(314)에서) 보여질 수 있고 모든 브라우저들에서 보여질 필요는 없을 수 있다.
일부 구현들에서, 시스템(102)은 원격으로 조작되는 카메라를 소유하는 사용자가 제어에 일부 제한들을 둘 수 있게 할 수 있다. 예를 들어, 시스템(102)은 그 사용자가 비디오 스트림이 어떻게 변경되고 있는지를 볼 수 있게 및/또는 비디오가 변경되는 방법을 제한할 수 있게 할 수 있다(예를 들어, 패닝, 주밍 등에 일부 제한들을 두는 등).
위에 나타낸 바와 같이, 일부 구현들에서, 시스템(102)은 주어진 사용자에 대한 하나 이상의 설정(예를 들어, 선호하는 설정들)을 데이터베이스에 저장할 수 있다. 시스템(102)은 설정들과 관련된 사용자가 비디오 회의에 참가할 때마다 이러한 설정들을 이후에 자동으로 적용할 수 있다. 일부 구현들에서, 주어진 사용자에 대한 설정들이 적용되고 다음으로 그 사용자가 비디오 회의를 떠나면, 설정들은 디폴트 설정으로 돌아갈 수 있다.
도 5는 일부 구현들에 따른, 예시적인 간략화된 사용자 인터페이스(500)를 도시한다. 도시된 바와 같이, 사용자 인터페이스(500)는 비디오 스트림과 관련된 기본 기능들에 대한 다양한 제어들 및 설정들을 포함한다. 예를 들어, 사용자 인터페이스(500)는 노출, 자동-노출, 노출 시간, 이득, 휘도, 콘트라스트, 채도, 선명도, 화이트 밸런스, 온도(예를 들어, 화이트 밸런스 온도) 등에 대한 제어들을 포함한다. 기본 기능들에 대한 다른 제어들 및 설정들이 특정 구현에 따라 가능하다.
도 6은 일부 구현들에 따른, 예시적인 간략화된 사용자 인터페이스(600)를 도시한다. 도시된 바와 같이, 사용자 인터페이스(600)는 비디오 스트림과 관련된 보다 고급의 기능들에 대한 다양한 제어들 및 설정들을 포함한다. 예를 들어, 사용자 인터페이스(600)는 전력 선 주파수(안티-플리커), 플리커, 백라이트 보상, 초점, 줌, 팬, 틸트 등에 대한 제어들을 포함한다. 본 예에서 도시되지 않은 보다 고급의 기능들에 대한 다른 제어들 및 설정들이 특정 구현에 따라 가능하다. 위에 설명된 플리커 예에서, 시스템(102)이 플리커와 관련된 설정들이 존재한다고 결정한 이후, 시스템(102)은 사용자 인터페이스(600)에 도시된 바와 같은 브라우저에서의 플리커 보상 제어를 제공할 수 있다.
도 7은 일부 구현들에 따른, 예시적인 간략화된 사용자 인터페이스(700)를 도시한다. 도시된 바와 같이, 사용자 인터페이스(700)는 비디오 스트림과 관련된 더 많은 선호도들에 대한 다양한 제어들을 포함한다. 예를 들어, 사용자 인터페이스(700)는 카메라로부터의 판독 설정들 및 카메라로의 기입 설정들과 관련된 선호도들에 대한 제어들 및 설정들을 포함한다. 본 예에서 도시되지 않은 선호도들에 대한 다른 제어들 및 설정들이 특정 구현에 따라 가능하다.
위에 나타낸 바와 같이, 일부 구현들은 원격 사용자가 조작하기 위한 제어들을 제공하는 시스템(102)의 맥락에서 본 명세서에 설명되지만, 시스템(102)은 사용자로부터의 액션을 요구하지 않고 자동으로 이러한 변경들을 적용할 수 있다. 예를 들어, 시스템(102)은 자동으로 플리커를 검출하고 다음으로 카메라(308)와 같은 카메라에 안티-플리커 변경들을 자동으로 적용할 수 있다.
일부 구현들이 비디오 스트림에서 차선의 특징들을 향상시키는 맥락에서 본 명세서에 설명되지만, 이러한 구현들 및 다른 것들은 또한 엔터테인먼트 및/또는 예술적 목적으로 다른 특징들에 적용될 수 있다. 예를 들어, 시스템(102)은 사용자가 원격으로 비디오 스트림의 컬러들을 수정할 수 있게 할 수 있다(예를 들어, 컬러를 흑백으로 등).
일부 구현들에서, 시스템(102)은 주어진 사용자가 비디오 스트림의 프레임 레이트를 수정할 수 있게 할 수 있다. 예를 들어, 프레임 레이트가 원하는 30 대신에 초당 15 프레임들이면, 시스템(102)은 이러한 낮은 프레임 레이트를 검출할 수 있고, 이러한 검출에 기초하여 프레임 레이트를 변경하기 위한 제어들을 제공할 수 있다. 이러한 제어들은, 예를 들어, 수화를 사용하는 사용자에게 유용할 수 있다. 이러한 사용자는 심지어 비디오 품질의 비용이 들더라도 더 높은 프레임 레이트를 갖는 것을 선호할 수 있다.
본 명세서에 설명되는 구현들은 다양한 이점들을 제공한다. 예를 들어, 구현들은 각각의 사용자(예를 들어, 비디오 회의 참가자)가 그의 또는 그녀의 브라우저로부터 비디오 스트림들의 다양한 특징들을 최적화할 수 있게 한다. 구현들은 또한 각각의 사용자가 특정 비디오 카메라에서 통상적으로 관리되는 비디오 스트림들의 다양한 특징들을 최적화할 수 있게 한다. 본 명세서에 설명되는 구현들은 또한 소셜 네트워킹 환경에서의 사용자들 사이의 전반적인 관계를 향상시킨다.
비록 단계들, 동작들, 또는 계산들이 구체적인 순서로 제시될 수 있더라도, 그 순서는 상이한 특정 구현들에서 변경될 수 있다. 특정 구현에 따라 단계들의 다른 순서들이 가능하다. 일부 특정 구현들에서는, 본 명세서에서 순차적으로 도시되는 다수의 단계들이 동시에 수행될 수 있다. 또한, 일부 구현들은 도시된 단계들 모두를 갖지는 않을 수 있고/있거나, 본 명세서에 도시된 것들 대신에, 또는, 이외에도 다른 단계들을 가질 수 있다.
시스템(102)이 본 명세서에서 구현들에서 설명되는 바와 같은 단계들을 수행하는 것으로 설명되지만, 시스템(102)의 임의의 적합한 컴포넌트 또는 컴포넌트들의 조합 또는 시스템(102)과 관련된 임의의 적합한 프로세서 또는 프로세서들이 설명된 단계들을 수행할 수 있다.
다양한 구현들에서, 시스템(102)은 다양한 인식 알고리즘들을 이용하여, 이미지들에서의 얼굴들, 랜드마크들, 오브젝트들 등을 인식할 수 있다. 이러한 인식 알고리즘들은 시스템(102)에 통합될 수 있다. 시스템(102)은 시스템(102)의 외부에 있고 시스템(102)이 액세스하는 소프트웨어에 의해 제공되는 인식 알고리즘들을 또한 액세스할 수 있다.
다양한 구현들에서, 시스템(102)은 소셜 네트워크 시스템의 사용자들이, 이미지들에서의 그들의 얼굴들을 사용하거나 이미들에서 식별되는 사람들을 인식함에 있어서 그들의 식별 정보를 사용하는 시스템(102)을 포함할 수 있는, 개인 정보의 사용을 명시 및/또는 동의하게 할 수 있다. 예를 들어, 시스템(102)은 개인 정보의 사용을 명시 및/또는 동의하는 것에 관한 다수의 선택들을 사용자들에게 제공할 수 있다. 예를 들어, 명시 및/또는 동의에 관한 선택들은 개별 이미지들, 모든 이미지들, 개별 사진 앨범들, 모든 사진 앨범들 등과 관련될 수 있다. 이러한 선택들은 다양한 방식들로 구현될 수 있다. 예를 들어, 시스템(102)은 다양한 선택들 옆에 버튼들 또는 체크 박스들이 디스플레이되게 할 수 있다. 일부 구현들에서, 시스템(102)은 소셜 네트워크의 사용자들이 일반적으로 얼굴 인식을 위해 그들의 이미지들의 사용을 명시 및/또는 동의할 수 있게 한다. 얼굴들 및 다른 오브젝트들을 인식하기 위한 예시적인 구현들이 이하 보다 상세히 설명된다.
본 명세서에 논의되는 시스템들이 사용자들에 관한 개인 정보를 수집하거나, 또는 개인 정보를 이용할 수 있는 상황들에서, 사용자들은 프로그램들 또는 특색들이 개인 정보(예를 들어, 사용자의 소셜 네트워크, 소셜 액션들 또는 액티비티들, 직업, 사용자의 선호도들, 또는 사용자의 현재 위치에 관한 정보)를 수집할지를 제어하거나, 또는 콘텐츠 서버로부터 사용자와 좀 더 관련이 있을 수 있는 콘텐츠를 수신할지 및/또는 어떻게 수신할지를 제어하는 기회를 제공받을 수 있다. 또한, 특정 데이터가 저장되거나 사용되기 이전에 하나 이상의 방식으로 취급될 수 있으며, 따라서 개인적으로 식별가능한 정보가 제거될 수 있다. 예를 들어, 사용자에 대해 개인적으로 식별가능한 정보가 결정될 수 없도록 사용자의 아이덴티티가 취급될 수 있거나, (도시, ZIP 코드 또는 주 레벨과 같은) 위치 정보가 획득되는 경우에 사용자의 특정 위치가 결정될 수 없도록 사용자의 지리적 위치가 일반화될 수 있다. 따라서, 사용자는 사용자에 관한 정보가 어떻게 수집되고 콘텐츠 서버에 의해 어떻게 사용되는지에 대해 제어를 가질 수 있다.
다양한 구현들에서, 시스템(102)은 소셜 네트워크 시스템의 사용자들의 기준 이미지들을 획득하는데, 각각의 기준 이미지는 알려진 사용자와 관련된 얼굴의 이미지를 포함한다. 시스템(102)이 사용자의 이름 및 다른 프로필 정보와 같은 사용자의 아이덴티티 정보를 갖는다는 점에서 사용자는 알려진다. 일부 구현들에서, 기준 이미지는, 예를 들어, 사용자가 업로드한 프로필 이미지일 수 있다. 일부 구현들에서, 기준 이미지는 기준 이미지들의 그룹의 합성에 기초할 수 있다.
일부 구현들에서는, 이미지에서의 얼굴을 인식하기 위해, 시스템(102)은 얼굴(즉, 얼굴의 이미지)을 비교하고, 얼굴을 소셜 네트워크 시스템의 사용자들의 기준 이미지들과 매칭시킬 수 있다. 용어 "얼굴(face)" 및 문구 "얼굴의 이미지(image of face)"는 교환가능하게 사용된다는 점에 주목하자. 도시의 편의상, 본 명세서에 설명되는 예시적인 구현들의 일부에서는 하나의 얼굴의 인식이 설명된다. 이러한 구현들은 인식될 다수의 얼굴들의 각각의 얼굴에 적용될 수 있다.
일부 구현들에서, 시스템(102)은 이미지에서의 얼굴과 유사한 임의의 하나 이상의 기준 이미지를 식별하기 위해 기준 이미지들을 검색할 수 있다. 일부 구현들에서는, 주어진 기준 이미지에 대해, 시스템(102)은 분석을 위해 이미지에서의 얼굴의 이미지로부터 특색들을 추출하고, 다음으로 그러한 특색들을 하나 이상의 기준 이미지의 것들과 비교할 수 있다. 예를 들어, 시스템(102)은 눈들, 코, 광대뼈, 입, 턱 등과 같은 얼굴 특색들의 상대적 배치, 크기, 및/또는 형상을 분석할 수 있다. 일부 구현들에서, 시스템(102)은 이미지에서의 얼굴을 일치하거나 또는 유사한 특색들을 갖는 하나 이상의 기준 이미지에 매칭하기 위해 이러한 분석으로부터 수집된 데이터를 사용할 수 있다. 일부 구현들에서, 시스템(102)은 다수의 기준 이미지들을 정규화하고, 이러한 이미지들로부터의 얼굴 데이터를 정보(예를 들어, 얼굴 특색 데이터)를 갖는 합성 표현으로 압축하고, 다음으로 얼굴 인식을 위해 이미지에서의 얼굴을 합성 표현과 비교할 수 있다.
일부 시나리오들에서, 이미지에서의 얼굴은 동일 사용자와 관련된 다수의 기준 이미지들과 유사할 수 있다. 이와 같이, 이미지에서의 얼굴과 관련된 사람이 기준 이미지들과 관련된 동일한 사람일 확률이 높을 것이다.
일부 시나리오들에서, 이미지에서의 얼굴은 상이한 사용자들과 관련된 다수의 기준 이미지들과 유사할 수 있다. 이와 같이, 이미지에서의 사람이 기준 이미지들과 관련된 임의의 주어진 사람과 매칭될 확률이 적당히 높지만 감소할 것이다. 이러한 상황을 다루기 위해, 시스템(102)은 이러한 가능성들을 이상적으로는 하나의 최상의 후보로 좁힐 수 있도록 다양한 타입들의 얼굴 인식 알고리즘들을 사용할 수 있다.
예를 들어, 일부 구현들에서는, 얼굴 인식을 용이하게 하기 위해, 시스템(102)은 특색 구별에 기초하는 기하학적 얼굴 인식 알고리즘들을 사용할 수 있다. 시스템(102)은 얼굴 특색을 비교를 위한 값들로 추출하는 통계적 접근방식에 기초하는 측광 알고리즘들을 또한 사용할 수 있다. 이미지에서의 얼굴을 하나 이상의 기준과 비교할 때 기하학적 및 측광 접근방식들의 조합이 또한 사용될 수 있다.
다른 얼굴 인식 알고리즘들이 사용될 수 있다. 예를 들어, 시스템(102)은 주요 컴포넌트 분석, 선형 구별 분석, 탄성 다발 그래프 매칭(elastic bunch graph matching), 히든 마르코프 모델들(hidden Markov models), 및 동적 링크 매칭(dynamic link matching) 중 하나 이상을 사용하는 얼굴 인식 알고리즘들을 사용할 수 있다. 시스템(102)은 다른 알려진 또는 차후 개발된 얼굴 인식 알고리즘들, 기술들, 및/또는 시스템들을 이용할 수 있다는 점이 이해될 것이다.
일부 구현들에서, 시스템(102)은 이미지에서의 얼굴이 주어진 기준 이미지와 매칭될 가능성(또는 확률)을 표시하는 출력을 생성할 수 있다. 일부 구현들에서, 이러한 출력은 이미지에서의 얼굴이 주어진 기준 이미지와 매칭되는 신뢰도와 관련된 백분율과 같은 메트릭(metric)(또는 수치 값)으로서 표현될 수 있다. 예를 들어, 1.0의 값은 매치의 100% 신뢰도를 나타낼 수 있다. 이것은, 예를 들어, 비교되는 이미지들이 동일하거나 거의 동일할 때 발생할 수 있다. 매치의 50% 기회가 존재할 때 이러한 값은, 예를 들어 0.5로 낮아질 수 있다. 다른 타입들의 출력들이 가능하다. 예를 들어, 일부 구현들에서, 이러한 출력은 매칭에 대한 신뢰도 스코어일 수 있다.
도 8은 본 명세서에 설명되는 구현들을 구현하는데 사용될 수 있는 예시적인 서버 디바이스(800)의 블록도를 도시한다. 예를 들어, 서버 디바이스(800)는 도 1의 서버 디바이스(104)를 구현하는 것은 물론, 본 명세서에 설명되는 방법 구현들을 수행하는데 사용될 수 있다. 일부 구현들에서, 서버 디바이스(800)는 프로세서(802), 운영 체제(804), 메모리(806) 및 I/O(input/output) 인터페이스(808)를 포함한다. 서버 디바이스(800)는 메모리(806) 또는 임의의 다른 적합한 저장 위치 또는 컴퓨터 판독 가능 매체에 저장될 수 있는 소셜 네트워크 엔진(810) 및 미디어 애플리케이션(812)을 또한 포함한다. 미디어 애플리케이션(812)은 프로세서(802)가 본 명세서에 설명되는 기능들 및 다른 기능들을 수행할 수 있게 하는 명령어들을 제공한다.
도시의 편의상, 도 8은 프로세서(802), 운영 체제(804), 메모리(806), I/O 인터페이스(808), 소셜 네트워크 엔진(810), 및 미디어 애플리케이션(812) 각각에 대해 하나의 블록을 보여준다. 이러한 블록들(802, 804, 806, 808, 810, 812)은 다수의 프로세서들, 운영 체제들, 메모리들, I/O 인터페이스들, 소셜 네트워크 엔진들, 및 미디어 애플리케이션들을 나타낼 수 있다. 다른 구현들에서, 서버 디바이스(800)는 도시된 컴포넌트들 모두를 갖지는 않을 수 있고/있거나, 본 명세서에서 도시된 것들 대신에, 또는, 이외에도 다른 타입들의 엘리먼트들을 포함하는 다른 엘리먼트들을 가질 수 있다.
설명이 그 특정 실시예들에 대하여 설명되었지만, 이러한 특정 실시예들은 제한적이 아니라 예시적일 뿐이다. 예들에서 예시되는 개념들은 다른 예들 및 구현들에 적용될 수 있다. 예를 들어, 일부 구현들은 소셜 네트워크 시스템의 맥락에서 본 명세서에 설명된다. 그러나, 본 명세서에 설명되는 구현들은 소셜 네트워크 이외의 맥락들에 적용될 수 있다. 예를 들어, 구현들은 개별 사용자에 대해 로컬로 적용될 수 있다.
본 개시내용에서 설명되는 기능 블록들, 방법들, 디바이스들 및 시스템들은 본 분야에서의 통상의 기술자들에게 알려진 바와 같은 시스템들, 디바이스들 및 기능 블록들의 상이한 조합들에 통합 또는 분할될 수 있다는 점에 주목하자.
임의의 적합한 프로그래밍 언어들 및 프로그래밍 기술들은 특정 실시예들의 루틴들을 구현하는데 사용될 수 있다. 절차적 또는 객체 지향적과 같은 상이한 프로그래밍 기술들이 사용될 수 있다. 이러한 루틴들은 단일의 처리 디바이스 또는 다수의 프로세서들 상에서 실행될 수 있다. 단계들, 동작들 또는 계산들이 구체적인 순서로 제공될 수 있더라도, 이러한 순서는 상이한 특정 실시예들에서 변경될 수 있다. 일부 특정 실시예들에서는, 본 명세서에서 순차적인 것으로 도시되는 다수의 단계들이 동시에 수행될 수 있다.
"프로세서(processor)"는 데이터, 신호들 또는 다른 정보를 처리하는 임의의 적합한 하드웨어 및/또는 소프트웨어 시스템, 메커니즘 또는 컴포넌트를 포함한다. 프로세서는, 범용 중앙 처리 유닛, 다수의 처리 유닛들, 기능성을 달성하기 위한 전용 회로, 또는 다른 시스템들을 갖는 시스템을 포함할 수 있다. 처리는 지리적 위치에 제한되거나 시간적 제한들 가질 필요가 없다. 예를 들어, 프로세서는 "배치 모드(batch mode)"에서 "실시간(real-time)", "오프라인(offline)" 등으로 그 기능들을 수행할 수 있다. 처리의 부분들은 상이한(또는 동일한) 처리 시스템들에 의해, 상이한 시간들에 그리고 상이한 위치들에서 수행될 수 있다. 컴퓨터는 메모리와 통신하는 임의의 프로세서일 수 있다. 메모리는 RAM(random-access memory), ROM(read-only memory), 자기 스토리지 디바이스(하드 디스크 드라이브 등), 플래시, 광 스토리지 디바이스(CD, DVD 등), 자기 또는 광 디스크와 같은 전자적 스토리지 디바이스들, 또는 프로세서에 의한 실행을 위해 명령어들을 저장하기에 적합한 다른 유형의 매체를 포함하는, 임의의 적합한 데이터 스토리지, 메모리 및/또는 비-일시적 컴퓨터-판독가능 스토리지 매체일 수 있다. 소프트웨어 명령어들은 또한, 예를 들어 서버(예를 들어, 분산형 시스템 및/또는 클라우드 컴퓨팅 시스템)로부터 전달되는 SaaS(software as a service)의 형태로 전자 신호 내에 포함되고 전자 신호로서 제공될 수 있다.

Claims (20)

  1. 방법으로서,
    제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정하는 단계 - 상기 하나 이상의 특징은 하나 이상의 비디오 특징을 포함함 - ;
    상기 하나 이상의 특징에 기초하여 상기 제1 카메라의 하나 이상의 기능을 결정하는 단계- 상기 하나 이상의 기능은 캡처 레이트, 플리커, 화이트 밸런스, 노출, 콘트라스트, 온도, 및 조리개 중 하나 이상에 대한 제어들을 포함함 -;
    브라우저가 상기 제1 카메라의 상기 하나 이상의 기능을 제어할 수 있게 하는 단계- 상기 브라우저는 상기 제1 카메라에 대하여 원격이고, 상기 제1 카메라는 제1 사용자와 관련되고, 상기 브라우저는 제2 사용자와 관련되고, 상기 브라우저가 상기 하나 이상의 기능을 제어할 수 있게 하는 단계는,
    상기 비디오 스트림과 관련된 상기 하나 이상의 비디오 특징을 분석하는 단계; 및
    상기 하나 이상의 비디오 특징의 상기 분석에 기초하여 상기 브라우저에서 하나 이상의 제어를 활성화하는 단계
    를 포함하고, 상기 하나 이상의 제어는 상기 하나 이상의 기능에 대응하고, 상기 하나 이상의 제어는 상기 하나 이상의 기능과 관련된 하나 이상의 설정에 대응하며, 상기 하나 이상의 제어는, 상기 하나 이상의 비디오 특징과 관련된 것으로 결정되고 수정에 이용가능한 상기 하나 이상의 설정을 갖는 것으로 결정된 상기 하나 이상의 기능을 제어하도록 상기 활성화하는 것에 의해 가능하게 됨(enabled) -; 및
    상기 하나 이상의 설정을 사용자에 대해 데이터베이스에 저장하고 상기 하나 이상의 설정과 관련된 상기 사용자가 상기 비디오 스트림 상에 나타날 때마다 상기 하나 이상의 설정을 자동으로 적용하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 하나 이상의 기능은 패닝(panning) 및 주밍(zooming) 중 하나 이상에 대한 제어들을 포함하는 방법.
  3. 제1항에 있어서,
    상기 하나 이상의 비디오 특징을 분석하는 단계는 얼굴을 검출하는 단계를 포함하고, 상기 방법은,
    상기 브라우저에 의해 수신된, 상기 하나 이상의 제어 중 적어도 하나의 특정 제어의 조정에 기초하여 상기 제1 카메라가 상기 얼굴로 패닝 및 주밍 중 하나 이상을 수행하게 하는 단계를 더 포함하는 방법.
  4. 제1항에 있어서,
    상기 하나 이상의 비디오 특징을 분석하는 단계는 얼굴과 상기 얼굴의 피부색을 검출하는 단계를 포함하고, 상기 방법은,
    상기 브라우저에 의해 수신된, 상기 하나 이상의 제어 중 적어도 하나의 특정 제어의 조정에 기초하여 상기 제1 카메라가 상기 얼굴로 패닝 및 주밍 중 하나 이상을 수행하게 하는 단계를 더 포함하는 방법.
  5. 제1항에 있어서,
    상기 브라우저가 상기 하나 이상의 기능을 제어할 수 있게 하는 상기 단계는 하나 이상의 기능과 관련된 하나 이상의 설정을 무효화하는 단계를 포함하는 방법.
  6. 방법으로서,
    제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정하는 단계 - 상기 하나 이상의 특징은 하나 이상의 비디오 특징을 포함함 - ;
    상기 하나 이상의 특징에 기초하여 상기 제1 카메라의 하나 이상의 기능을 결정하는 단계;
    소프트웨어 애플리케이션이 상기 제1 카메라의 상기 하나 이상의 기능을 제어할 수 있게 하는 단계 - 상기 소프트웨어 애플리케이션은 상기 제1 카메라에 대하여 원격이고, 상기 소프트웨어 애플리케이션이 상기 하나 이상의 기능을 제어할 수 있게 하는 단계는,
    상기 비디오 스트림과 관련된 상기 하나 이상의 비디오 특징을 분석하는 단계; 및
    상기 하나 이상의 비디오 특징의 상기 분석에 기초하여 상기 소프트웨어 애플리케이션에서 하나 이상의 제어를 활성화하는 단계
    를 포함하고, 상기 하나 이상의 제어는 상기 하나 이상의 기능에 대응하고, 상기 하나 이상의 제어는 상기 하나 이상의 기능과 관련된 하나 이상의 설정에 대응하며, 상기 하나 이상의 제어는, 상기 하나 이상의 비디오 특징과 관련된 것으로 결정되고 수정에 이용가능한 상기 하나 이상의 설정을 갖는 것으로 결정된 상기 하나 이상의 기능을 제어하도록 상기 활성화하는 것에 의해 가능하게 됨 -; 및
    상기 하나 이상의 설정을 사용자에 대해 데이터베이스에 저장하고 상기 하나 이상의 설정과 관련된 상기 사용자가 상기 비디오 스트림 상에 나타날 때마다 상기 하나 이상의 설정을 자동으로 적용하는 단계
    를 포함하는 방법.
  7. 제6항에 있어서,
    상기 하나 이상의 기능은 캡처 레이트, 플리커, 노출, 콘트라스트, 화이트 밸런스, 온도, 및 조리개 중 하나 이상에 대한 제어들을 포함하는 방법.
  8. 제6항에 있어서,
    상기 하나 이상의 비디오 특징에 기초하여 상기 하나 이상의 설정에 대해 하나 이상의 변경을 적용하는 단계를 더 포함하는 방법.
  9. 제6항에 있어서,
    상기 하나 이상의 기능은 패닝 및 주밍 중 하나 이상에 대한 제어들을 포함하는 방법.
  10. 제6항에 있어서,
    상기 소프트웨어 애플리케이션의 사용자 인터페이스에서 상기 하나 이상의 제어가 디스플레이되게 하는 단계를 더 포함하고,
    상기 하나 이상의 기능을 결정하기 전에 상기 하나 이상의 제어 중 적어도 하나는 상기 사용자 인터페이스에 디스플레이되지 않는, 방법.
  11. 제9항에 있어서,
    상기 비디오 스트림의 상기 하나 이상의 비디오 특징의 상기 분석에 기초하여 상기 제1 카메라의 물리적 환경 내에 위치한 얼굴을 검출하는 단계; 및
    상기 패닝 및 상기 주밍 중 상기 하나 이상을 위해 상기 검출된 얼굴에 상기 제1 카메라의 초점을 맞추는 단계
    를 더 포함하는 방법.
  12. 제6항에 있어서,
    상기 소프트웨어 애플리케이션은 브라우저인 방법.
  13. 제6항에 있어서,
    상기 소프트웨어 애플리케이션에 의해, 상기 하나 이상의 제어 중 제1 제어의 조정을 수신하는 단계;
    상기 소프트웨어 애플리케이션에 의해, 상기 제1 카메라와 관련된 애플리케이션 프로그래밍 인터페이스로, 상기 하나 이상의 제어 중 상기 제1 제어의 상기 조정에 기초하여 상기 제1 카메라의 상기 하나 이상의 기능의 특징을 변경하는 하나 이상의 명령어를 생성하는 단계; 및
    상기 소프트웨어 애플리케이션에 의해, 상기 하나 이상의 명령어를 통신 네트워크를 통해 상기 제1 카메라로 전송하는 단계
    를 더 포함하는 방법.
  14. 시스템으로서,
    하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 의한 실행을 위해 하나 이상의 비-일시적 컴퓨터 판독가능 매체 내에 인코딩되고, 실행될 때,
    제1 카메라에 의해 제공되는 비디오 스트림의 하나 이상의 특징을 결정하는 단계 - 상기 하나 이상의 특징은 하나 이상의 비디오 특징을 포함함 - ;
    상기 하나 이상의 특징에 기초하여 상기 제1 카메라의 하나 이상의 기능을 결정하는 단계;
    소프트웨어 애플리케이션이 상기 제1 카메라의 상기 하나 이상의 기능을 제어할 수 있게 하는 단계 - 상기 소프트웨어 애플리케이션은 상기 제1 카메라에 대하여 원격이고, 상기 제1 카메라는 제1 사용자와 관련되고, 상기 소프트웨어 애플리케이션은 제2 사용자와 관련되고, 상기 소프트웨어 애플리케이션이 상기 하나 이상의 기능을 제어할 수 있게 하는 단계는,
    상기 비디오 스트림과 관련된 상기 하나 이상의 비디오 특징을 분석하는 단계; 및
    상기 하나 이상의 비디오 특징의 상기 분석에 기초하여 상기 소프트웨어 애플리케이션에서 하나 이상의 제어를 활성화하는 단계
    를 포함하고, 상기 하나 이상의 제어는 상기 하나 이상의 기능에 대응하고, 상기 하나 이상의 제어는 상기 하나 이상의 기능과 관련된 하나 이상의 설정에 대응하며, 상기 하나 이상의 제어는, 상기 하나 이상의 비디오 특징과 관련된 것으로 결정되고 수정에 이용가능한 상기 하나 이상의 설정을 갖는 것으로 결정된 상기 하나 이상의 기능을 제어하도록 상기 활성화하는 것에 의해 가능하게 됨 -; 및
    상기 하나 이상의 설정을 사용자에 대해 데이터베이스에 저장하고 상기 하나 이상의 설정과 관련된 상기 사용자가 상기 비디오 스트림 상에 나타날 때마다 상기 하나 이상의 설정을 자동으로 적용하는 단계
    를 포함하는 동작들을 수행하도록 동작가능한 로직
    을 포함하는 시스템.
  15. 제14항에 있어서,
    상기 하나 이상의 기능은 노출, 콘트라스트, 화이트 밸런스, 온도, 및 조리개 중 하나 이상에 대한 제어들을 포함하는 시스템.
  16. 제14항에 있어서,
    상기 하나 이상의 기능은 캡처 레이트 및 플리커 중 하나 이상에 대한 제어들을 포함하는 시스템.
  17. 제14항에 있어서,
    상기 하나 이상의 기능은 패닝 및 주밍 중 하나 이상에 대한 제어들을 포함하는 시스템.
  18. 제14항에 있어서,
    상기 제1 카메라의 상기 하나 이상의 기능을 결정하는 단계는 상기 제1 카메라의 상기 하나 이상의 기능 중 적어도 하나의 기능이 상기 비디오 스트림과 관련된 상기 하나 이상의 특징 중 적어도 하나의 특징과 관련된다고 결정하는 단계를 포함하는 시스템.
  19. 제14항에 있어서,
    상기 하나 이상의 비디오 특징을 분석하는 단계는 얼굴을 검출하는 단계를 포함하고,
    상기 로직은 실행될 때,
    상기 소프트웨어 애플리케이션에 의해 수신된, 상기 하나 이상의 제어 중 적어도 하나의 특정 제어의 조정에 기초하여 상기 제1 카메라가 상기 얼굴로 패닝 및 주밍 중 하나 이상을 수행하게 하는 단계를 포함하는 동작들을 수행하도록 더욱 동작가능한 시스템.
  20. 제14항에 있어서,
    상기 로직은 실행될 때,
    상기 하나 이상의 비디오 특징에 기초하여 상기 하나 이상의 설정에 대해 하나 이상의 변경을 적용하는 단계를 포함하는 동작들을 수행하도록 더욱 동작가능한 시스템.
KR1020167021204A 2014-02-03 2015-01-21 비디오 회의 강화 KR102077887B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/171,086 US9215411B2 (en) 2014-02-03 2014-02-03 Enhancing video conferences
US14/171,086 2014-02-03
PCT/US2015/012253 WO2015116450A1 (en) 2014-02-03 2015-01-21 Enhancing video conferences

Publications (2)

Publication Number Publication Date
KR20160105872A KR20160105872A (ko) 2016-09-07
KR102077887B1 true KR102077887B1 (ko) 2020-02-14

Family

ID=52469910

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167021204A KR102077887B1 (ko) 2014-02-03 2015-01-21 비디오 회의 강화

Country Status (6)

Country Link
US (3) US9215411B2 (ko)
EP (1) EP3103260A1 (ko)
JP (1) JP6563421B2 (ko)
KR (1) KR102077887B1 (ko)
CN (1) CN105960801B (ko)
WO (1) WO2015116450A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9215411B2 (en) * 2014-02-03 2015-12-15 Google Inc. Enhancing video conferences
US10192272B2 (en) * 2016-01-13 2019-01-29 Sourcecode Technology Holdings, Inc. Expense report management methods and apparatus
JP2019036907A (ja) * 2017-08-21 2019-03-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び機器
US10607143B2 (en) * 2017-08-22 2020-03-31 Internatonal Business Machines Corporation Profile data camera adjustment
CN109040652A (zh) * 2018-10-08 2018-12-18 北京小鱼在家科技有限公司 摄像头的调整方法、装置、视频通话设备和存储介质
US11470162B2 (en) * 2021-01-30 2022-10-11 Zoom Video Communications, Inc. Intelligent configuration of personal endpoint devices
WO2023087215A1 (en) * 2021-11-18 2023-05-25 Citrix Systems, Inc. Online meeting non-participant detection and remediation
KR102592598B1 (ko) * 2023-04-05 2023-10-23 김성 원격 카메라 제어 및 장면 공유를 위한 양방향 소셜 네트워크 서비스 플랫폼

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050134695A1 (en) * 2003-12-17 2005-06-23 Deshpande Sachin G. Systems and methods for providing remote camera control
JP2012138823A (ja) * 2010-12-27 2012-07-19 Brother Ind Ltd テレビ会議装置、テレビ会議方法、およびテレビ会議プログラム

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2416919A (en) * 1944-12-16 1947-03-04 Alfred N Goldsmith Television apparatus
EP0162311A3 (de) * 1984-04-25 1987-08-19 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Steuerschaltung für eine Videokamera und Verfahren zum Steuern einer Videokamera
JPH06311396A (ja) * 1993-04-27 1994-11-04 Mitsubishi Electric Corp 映像回路
JPH07135594A (ja) * 1993-11-11 1995-05-23 Canon Inc 撮像制御装置
JP3509448B2 (ja) * 1996-04-12 2004-03-22 ソニー株式会社 ビデオカメラ装置、映像信号処理装置、カラー映像信号のレベル圧縮方法および階調変換方法
JP3796296B2 (ja) * 1996-08-05 2006-07-12 キヤノン株式会社 通信方法、通信装置及びカメラ制御装置
KR19980073270A (ko) * 1997-03-13 1998-11-05 이정식 화상통신시 카메라의 원격제어 장치 및 방법
JPH1185654A (ja) * 1997-09-12 1999-03-30 Matsushita Electric Ind Co Ltd 仮想wwwサーバ装置およびカメラ制御可能なwwwサーバ装置
JPH11341501A (ja) * 1998-05-26 1999-12-10 Seiko Epson Corp 電子写真撮像装置、電子写真撮像方法、電子写真撮像制御プログラムを記録した媒体
WO2005099423A2 (en) * 2004-04-16 2005-10-27 Aman James A Automatic event videoing, tracking and content generation system
US6564380B1 (en) 1999-01-26 2003-05-13 Pixelworld Networks, Inc. System and method for sending live video on the internet
US6463343B1 (en) * 1999-08-10 2002-10-08 International Business Machines Corporation System and method for controlling remote devices from a client computer using digital images
US20050174473A1 (en) * 1999-11-18 2005-08-11 Color Kinetics, Inc. Photography methods and systems
JP2001339762A (ja) * 2000-05-29 2001-12-07 Mitsubishi Electric Corp 通信システム及び通信方法及び携帯電話
US6894714B2 (en) * 2000-12-05 2005-05-17 Koninklijke Philips Electronics N.V. Method and apparatus for predicting events in video conferencing and other applications
JP3783232B2 (ja) * 2002-04-25 2006-06-07 横河電機株式会社 カメラシステム
JP2003069883A (ja) * 2001-06-15 2003-03-07 Yokogawa Electric Corp カメラシステム
JP4629929B2 (ja) * 2001-08-23 2011-02-09 株式会社リコー デジタルカメラシステム及びこの制御方法
US20030103075A1 (en) 2001-12-03 2003-06-05 Rosselot Robert Charles System and method for control of conference facilities and equipment
JP4212274B2 (ja) * 2001-12-20 2009-01-21 シャープ株式会社 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム
JP2004040221A (ja) * 2002-06-28 2004-02-05 Minolta Co Ltd 画像配信システム
JP3768968B2 (ja) * 2003-03-28 2006-04-19 株式会社エヌ・ティ・ティ・ドコモ 通信端末及びプログラム
PE20050216A1 (es) * 2003-04-25 2005-04-23 Qualcomm Inc Metodo y aparato para controlar un recurso de camara en un dispositivo portatil
US7321384B1 (en) * 2003-06-03 2008-01-22 Cisco Technology, Inc. Method and apparatus for using far end camera control (FECC) messages to implement participant and layout selection in a multipoint videoconference
JP2005269257A (ja) * 2004-03-18 2005-09-29 Nec Corp 撮像装置および撮像装置の画質調整方法
US7502054B2 (en) * 2004-12-20 2009-03-10 Pixim, Inc. Automatic detection of fluorescent flicker in video images
KR100703699B1 (ko) * 2005-02-05 2007-04-05 삼성전자주식회사 다자간 화상 통신을 제공하는 장치 및 방법
US20070103543A1 (en) 2005-08-08 2007-05-10 Polar Industries, Inc. Network panoramic camera system
JP4356663B2 (ja) * 2005-08-17 2009-11-04 ソニー株式会社 カメラ制御装置および電子会議システム
JP4794987B2 (ja) * 2005-11-09 2011-10-19 キヤノン株式会社 映像信号処理装置
CA2636010A1 (en) * 2006-01-17 2007-07-17 Baker Hughes Inc SYSTEM AND METHOD FOR REMOTE DATA ACQUISITION AND DISTRIBUTION
JP4475268B2 (ja) * 2006-10-27 2010-06-09 セイコーエプソン株式会社 画像表示装置、画像表示方法、画像表示プログラム、及び画像表示プログラムを記録した記録媒体、並びに電子機器
JP2008311804A (ja) * 2007-06-13 2008-12-25 Sony Corp 撮像装置および撮像方法
NO327899B1 (no) * 2007-07-13 2009-10-19 Tandberg Telecom As Fremgangsmate og system for automatisk kamerakontroll
CN101141608B (zh) * 2007-09-28 2011-05-11 腾讯科技(深圳)有限公司 一种视频即时通讯系统及方法
US20090146982A1 (en) * 2007-12-05 2009-06-11 Jeff Thielman Lighting Calibration System and Method
CN101257621A (zh) * 2008-01-04 2008-09-03 深圳市蓝韵实业有限公司 一种内镜手术网络监控系统
KR100988377B1 (ko) * 2008-05-06 2010-10-18 엘지전자 주식회사 이동단말기의 메뉴관리 장치 및 방법
DE102008049715A1 (de) * 2008-09-30 2010-04-08 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Anordnung zum Anbinden zumindest einer Mensch-Maschine-Schnittstelle zur Manipulation von zumindest einer im Rahmen von Videokonferenzen mit einem Videokonferenzsystem verbundenen Datenquelle
US8189029B2 (en) * 2009-06-10 2012-05-29 Alcatel Lucent Portable video conferencing system with universal focal point
CN101605236B (zh) * 2009-07-10 2011-07-20 杭州华三通信技术有限公司 多画面会议中的远程摄像头控制方法及多点控制单元
NO332170B1 (no) * 2009-10-14 2012-07-16 Cisco Systems Int Sarl Anordning og fremgangsmate for kamerakontroll
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
CN101795400B (zh) * 2010-03-16 2013-03-27 上海复控华龙微系统技术有限公司 一种婴幼儿主动跟踪监护的方法及其实现系统
GB2479996A (en) * 2010-04-26 2011-11-02 Hu-Do Ltd Mobile computing device operating in conjunction with companion computing device to generate a user environment.
US8395653B2 (en) * 2010-05-18 2013-03-12 Polycom, Inc. Videoconferencing endpoint having multiple voice-tracking cameras
US8559936B2 (en) 2010-05-28 2013-10-15 Robert Bosch Gmbh Remote control of a telephone
US20120092444A1 (en) * 2010-10-19 2012-04-19 Cisco Technology, Inc. System and method for providing videomail in a network environment
US20120092439A1 (en) * 2010-10-19 2012-04-19 Cisco Technology, Inc. System and method for providing connectivity in a network environment
JP5725793B2 (ja) * 2010-10-26 2015-05-27 キヤノン株式会社 撮像装置およびその制御方法
CN102096823A (zh) * 2011-02-12 2011-06-15 厦门大学 基于高斯模型和最小均方差的人脸检测方法
CN102682273A (zh) * 2011-03-18 2012-09-19 夏普株式会社 嘴唇运动检测设备和方法
JP5136669B2 (ja) * 2011-03-18 2013-02-06 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN102244762A (zh) * 2011-06-03 2011-11-16 深圳市东微智能科技有限公司 一种会议系统的摄像跟踪方法及系统
US20130201356A1 (en) * 2012-02-07 2013-08-08 Arthrex Inc. Tablet controlled camera system
US8963986B2 (en) * 2012-07-26 2015-02-24 Cisco Technology, Inc. System and method for scaling a video presentation based on presentation complexity and room participants
US20150022674A1 (en) * 2013-07-18 2015-01-22 Koss Corporation Wireless video camera
US9215411B2 (en) * 2014-02-03 2015-12-15 Google Inc. Enhancing video conferences

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050134695A1 (en) * 2003-12-17 2005-06-23 Deshpande Sachin G. Systems and methods for providing remote camera control
JP2012138823A (ja) * 2010-12-27 2012-07-19 Brother Ind Ltd テレビ会議装置、テレビ会議方法、およびテレビ会議プログラム

Also Published As

Publication number Publication date
CN105960801A (zh) 2016-09-21
US9661208B1 (en) 2017-05-23
EP3103260A1 (en) 2016-12-14
US10015385B2 (en) 2018-07-03
JP6563421B2 (ja) 2019-08-21
KR20160105872A (ko) 2016-09-07
JP2017507626A (ja) 2017-03-16
US9215411B2 (en) 2015-12-15
CN105960801B (zh) 2020-02-07
US20150222854A1 (en) 2015-08-06
US20170257553A1 (en) 2017-09-07
WO2015116450A1 (en) 2015-08-06

Similar Documents

Publication Publication Date Title
KR102077887B1 (ko) 비디오 회의 강화
US10264177B2 (en) Methods and systems to obtain desired self-pictures with an image capture device
CN110785735B (zh) 用于语音命令情景的装置和方法
US10938725B2 (en) Load balancing multimedia conferencing system, device, and methods
US10541000B1 (en) User input-based video summarization
US11245968B2 (en) Prediction model training via live stream concept association
US20150229838A1 (en) Photo composition and position guidance in a camera or augmented reality system
JP2024073439A (ja) 選択的な動きの描画を伴う画像表示
US10706512B2 (en) Preserving color in image brightness adjustment for exposure fusion
US10084970B2 (en) System and method for automatically generating split screen for a video of a dynamic scene
JP2020513705A (ja) ビデオフレームの複数の部分のフィンガープリントを生成することによって立体ビデオを検出するための方法、システム、および媒体
WO2021057644A1 (zh) 拍摄方法和装置
US20230379538A1 (en) Content recommendations for users with disabilities
US9992407B2 (en) Image context based camera configuration
CN114727119B (zh) 直播连麦控制方法、装置及存储介质
JP2020037155A (ja) 仕草制御装置及び仕草制御プログラム
JP7333714B2 (ja) 提示制御装置、提示装置、およびプログラム
US11082609B2 (en) User device for facilitating the controlled operation of a camera
US20240056761A1 (en) Three-dimensional (3d) sound rendering with multi-channel audio based on mono audio input
CN115082980A (zh) 图像识别方法、设备及计算机存储介质
CN116210201A (zh) 基于身份预测置信度的用户认证
CN117917068A (zh) 安全和隐私保护的视频表示
CN115171741A (zh) 一种数据记录方法以及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101001852; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20180427

Effective date: 20191016

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant