KR20220032867A - 전자장치 및 그 제어방법 - Google Patents

전자장치 및 그 제어방법 Download PDF

Info

Publication number
KR20220032867A
KR20220032867A KR1020200114720A KR20200114720A KR20220032867A KR 20220032867 A KR20220032867 A KR 20220032867A KR 1020200114720 A KR1020200114720 A KR 1020200114720A KR 20200114720 A KR20200114720 A KR 20200114720A KR 20220032867 A KR20220032867 A KR 20220032867A
Authority
KR
South Korea
Prior art keywords
image
user
camera
electronic device
user area
Prior art date
Application number
KR1020200114720A
Other languages
English (en)
Inventor
이효재
김지은
유재영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200114720A priority Critical patent/KR20220032867A/ko
Priority to PCT/KR2021/011830 priority patent/WO2022055174A1/ko
Publication of KR20220032867A publication Critical patent/KR20220032867A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/2257
    • H04N5/2258
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 전자장치에 있어서, 인터페이스부;디스플레이; 및 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고, 상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하고, 상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 상기 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 프로세서를 포함한다.

Description

전자장치 및 그 제어방법{ELECTRONIC APPARATUS AND THE METHOD THEREOF}
본 개시는 영상통화 기능을 제공하는 전자장치 및 그 제어방법에 관한 것이다.
최근 영상회의와 같이 영상통화 기능을 이용한 다양한 서비스가 가정이나 직장 등에서 보다 대중화되고 있다. 다양한 서비스의 일 예로, 영상통화 기능을 이용 중이던 장치에서 다른 카메라를 이용하는 장치로 전환하여 기존 영상통화를 계속 유지할 수 있다. 이 때, 카메라나 사용자의 위치에 따라, 카메라 전환 시 전혀 다른 프레임의 영상이 상대방에게 전송될 수 있으며, 사용자의 의도와는 다르게 사용자가 원치 않는 배경이나 사람의 노출이 발생할 수 있다. 이는 사용자의 사생활 침해 등 문제를 발생시킬 수 있다. 또한, 영상통화에서 불필요한 대상까지 상대방에게 송출됨으로써 통화 집중도를 저해할 수 있으며, 이는 영상회의 등에서 업무 효율성을 저하시키는 요인이 될 수 있다.
본 개시의 목적은 영상통화 기능을 제공하는 경우, 보다 나은 서비스를 제공하는 전자장치 및 그 제어방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 전자장치에 있어서, 인터페이스부; 디스플레이; 및 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고, 상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하고, 상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 상기 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 프로세서를 포함한다.
상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고, 상기 프로세서는, 상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별할 수 있다.
상기 사용자 관련 정보는 상기 제1카메라의 화각에 관한 정보를 포함하고, 상기 프로세서는, 상기 제1카메라의 화각과 상기 제2카메라의 화각 간의 관계에 기초하여 상기 제2영상 내 사용자 영역을 식별할 수 있다.
상기 프로세서는, 상기 인터페이스부를 통해 상기 제1카메라를 포함하는 외부장치로부터 상기 사용자 관련 정보를 수신할 수 있다.
상기 프로세서는, 상기 제1카메라에서 상기 제2카메라로의 전환에 대응하여, 상기 제2영상 내 사용자 영역이 식별되는 동안 상기 상대방 장치로 상기 제1영상을 전송하거나 다른 영상으로 대체하여 전송할 수 있다.
본 발명의 일 실시예에 따른 전자장치는 상기 제2카메라를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치는 사용자입력부를 더 포함하고, 상기 프로세서는, 상기 사용자입력부를 통해 수신되는 사용자 입력에 기초하여 상기 제2영상 내 사용자 영역을 식별할 수 있다.
상기 사용자입력은 사용자 음성 입력을 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치는 사용자입력부를 더 포함하고, 상기 프로세서는, 상기 사용자입력부를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고, 상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송할 수 있다.
상기 프로세서는, 상기 제2영상 내 사용자영역을 나타내는 UI(User Interface)를 표시하고, 상기 UI를 이용하여 수신되는 상기 사용자입력에 기초하여 상기 제2영상 내 사용자영역을 조정할 수 있다.
상기 프로세서는, 외부장치를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고, 상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송할 수 있다.
상기 프로세서는, 상기 외부장치가 상기 제2영상 내 사용자영역을 조정하도록 상기 제2영상 내 사용자영역에 관한 정보를 상기 인터페이스부를 통해 상기 외부장치로 전송할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계; 상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및 상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함할 수 있다.
상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고, 상기 제2영상 내 사용자 영역을 식별하는 단계는, 상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함할 수 있다.
상기 사용자 관련 정보는 상기 제1카메라의 화각에 관한 정보를 포함하고, 상기 제2영상 내 사용자 영역을 식별하는 단계는, 상기 제1카메라의 화각과 상기 제2카메라의 화각 간의 관계에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 상기 인터페이스부를 통해 상기 제1카메라를 포함하는 외부장치로부터 상기 사용자 관련 정보를 수신하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 상기 제1카메라에서 상기 제2카메라로의 전환에 대응하여, 상기 제2영상 내 사용자 영역이 식별되는 동안 상기 상대방 장치로 상기 제1영상을 전송하거나 다른 영상으로 대체하여 전송하는 단계를 포함할 수 있다.
상기 제2영상 내 사용자 영역을 식별하는 단계는, 상기 사용자입력부를 통해 수신되는 사용자 입력에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 외부장치를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하는 단계; 및 상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송하는 단계를 포함할 수 있다.
컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은, 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계; 상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및 상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 영상통화 중 카메라의 전환에 따라 발생하는 영상의 차이를 최소화하여 자연스러운 카메라 전환 서비스를 제공할 수 있다. 또한, 카메라 전환에 의해 영상에서 사용자가 원하지 않는 배경이나 사람의 노출을 방지함으로써 사생활 보호에도 기여할 수 있다. 이를 통해, 영상통화에서 필요한 대상을 상대방에게 송출하여 통화 집중도를 높일 수 있고, 이는 영상회의 등에서 업무 효율성을 높이는 요인이 될 수 있다.
도 1은 카메라에 따른 영상 차이를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 전자장치의 동작 흐름도를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 구현될 수 있다. 또한, 본 발명의 실시예에서, 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.
도 1은 본 발명이 영상을 도시한 도면이다.
도 1에는 영상 A(1)와 영상 B(2)가 도시되어 있다. 영상 A(1)와 영상 B (2)는 동일한 상황에서 서로 다른 카메라에 의해 촬상된 것으로, 예컨대, 영상 A (1)는 이동가능한 전자장치인 휴대폰에 내장된 카메라(C1)에 의해 촬상된 것이고, 영상 B(2)는 위치가 고정되어 있는 전자장치인 TV에 거치된 카메라(C2)에 의해 촬상된 것으로 가정한다.
영상 A(1)의 경우, 휴대폰과 사용자의 거리가 가깝고, 휴대폰에 내장된 카메라(C1)가 TV에 거치된 카메라(C2)에 비해 상대적으로 화각이 좁아 사용자의 모습만이 표시된다. 영상 B(2)의 경우, 휴대폰보다 TV와 사용자의 거리가 멀고, 사용자가 카메라(C2)의 화각의 중심으로부터 상대적으로 외곽에 있다. 그리고, TV에 거치된 카메라(C2)의 화각이 휴대폰 카메라(C1)의 화각보다 넓어 사용자를 포함한 다른 사람들의 모습이 함께 표시된다.
이와 같이 영상은 촬상하는 카메라의 화각이나 카메라와 촬상되는 대상 간의 거리, 카메라의 위치 등에 의해 다르게 표시될 수 있다. 이하, 휴대폰에 내장된 카메라(C1)에서 TV에 거치된 카메라(C2)로 카메라가 전환되는 경우와 같이 화면이 바뀌는 경우, 사용자가 의도하지 않은 장면이 표시되는 등 사용자의 사생활 보호와 관련하여 발생할 수 있는 문제를 방지하는 기술에 대해 설명한다.
본 발명 일 실시예에 따르면, 전자장치(100)는, 도 1에 도시된 영상 A(1), 영상 B(2) 등 영상을 표시할 수 있는 디스플레이(121)를 포함하는 디스플레이장치로서 구현될 수 있다. 일 예로, 전자장치(100)는 TV, 컴퓨터, 스마트 폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등을 포함할 수 있다. 그러나, 본 발명의 사상이 전자장치(100)의 구현 예시에 한정되지 않는 바, 다른 실시예로서, 전자장치(100)는, 유선 또는 무선 연결된 외부의 디스플레이로 신호를 전송하는 셋탑박스와 같은 영상처리장치로서 구현될 수도 있다.
이하, 도면을 참조하여, 본 발명 일 실시예에 따른 전자장치의 구성들에 대해 설명하기로 한다.
도 2는 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.
도 2에 도시된 바와 같이, 전자장치(100)는 인터페이스부(110)를 포함할 수 있다.
인터페이스부(110)는 유선 인터페이스부(111)를 포함할 수 있다. 유선 인터페이스부(111)는 지상파/위성방송 등 방송표준에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송표준에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(100)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부(111)는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART 등과 같이, 비디오 및/또는 오디오 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 USB 포트 등과 같은 범용 데이터 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 광 전송표준에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 외부 마이크 또는 마이크를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오 신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오 신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 이더넷 등과 같은 네트워크 전송표준에 따른 커넥터 또는 포트를 포함할 수 있다. 예컨대, 유선 인터페이스부(111)는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.
유선 인터페이스부(111)는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오 신호를 수신하거나 또는 해당 외부기기에 비디오/오디오 신호를 송신한다. 유선 인터페이스부(111)는, 비디오/오디오 신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다.
그리고, 본 실시예에 따르면 유선 인터페이스부(111)는 전자장치(100)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(100)의 커넥터에 착탈될 수도 있다.
인터페이스부(110)는 무선 인터페이스부(112)를 포함할 수 있다. 무선 인터페이스부(112)는 전자장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부(112)는 통신방식으로 RF(radio frequency), 지그비(Zigbee), 블루투스(bluetooth), 와이파이(Wi-Fi), UWB(Ultra WideBand) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다. 무선 인터페이스부(112)는 와이파이(Wi-Fi) 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현될 수 있다. 무선 인터페이스부(112)는 네트워크 상의 서버와 무선 통신함으로써, 서버와의 사이에 데이터 패킷을 송수신할 수 있다. 무선 인터페이스부(112)는 적외선 통신표준에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부(112)는 IR송신부 및/또는 IR수신부를 통해 리모컨 또는 다른 외부기기로부터 리모컨신호를 수신 또는 입력하거나, 다른 외부기기로 리모컨신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(100)는 와이파이(Wi-Fi), 블루투스(bluetooth) 등 다른 방식의 무선 인터페이스부(112)를 통해 리모컨 또는 다른 외부기기와 리모컨신호를 송수신할 수 있다.
전자장치(100)는 인터페이스부(110)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 더 포함할 수 있다.
전자장치(100)가 디스플레이 장치로 구현되는 경우, 디스플레이부(120)를 포함할 수 있다. 디스플레이부(120)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이부(120)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예를 들면 디스플레이 패널이 액정 방식이라면, 디스플레이부(120)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다.
전자장치(100)는 사용자입력부(130)를 포함할 수 있다.
사용자입력부(130)는 사용자의 입력에 의해, 기설정된 다양한 제어 커맨드 또는 한정되지 않은 정보를 프로세서(180)에 전달한다. 사용자입력부(130)는 사용자 입력을 수신할 수 있는 다양한 입력수단을 포함한다.
일 실시예에서 사용자입력부(130)는 전자장치(100)에 마련된 전원키, 숫자키, 메뉴키 등의 버튼을 포함하는 키패드(또는 입력패널)를 포함할 수 있다.
일 실시예에서 사용자입력부(130)는 전자장치(100)를 원격으로 제어 가능하게 기설정된 커맨드/데이터/정보/신호를 생성하여 전자장치(100)로 전송하는 입력장치를 포함할 수 있다. 입력장치는, 예를 들면, 리모컨(remote control), 게임콘솔(game console), 키보드(keyboard), 마우스(mouse) 등을 포함하며, 전자장치(100)와 이격 분리되어, 사용자 입력을 수신할 수 있다.
리모컨에는 사용자 입력을 수신할 수 있는 적어도 하나의 버튼이 마련될 수 있다. 일 실시예에서 리모컨에는 사용자의 터치입력(터치제스처)을 수신하는 터치감지부 및/또는 사용자에 의한 리모컨 자체의 움직임을 감지하는 모션감지부가 마련될 수 있다. 일 실시예에서 입력장치는 리모컨 어플리케이션이 설치된 스마트폰과 같은 단말장치를 포함하며, 이 경우 터치스크린을 통한 사용자의 터치입력이 수신 가능하다.
입력장치는 전자장치(100) 본체와 무선통신이 가능한 외부장치가 되며, 무선통신은 블루투스, 적외선 통신, RF 통신, 무선랜, 와이파이 다이렉트 등을 포함한다.
일 실시예에서 사용자입력부(130)는 사용자의 손의 움직임, 다시 말해, 핸드 제스처(hand gesture)(이하, 제스처 라고도 한다)를 감지하는 모션감지부를 포함할 수 있다. 전자장치(100)는 모션감지부는 손의 이동거리, 이동속도, 이동영역의 면적 등을 감지하여 데이터를 출력할 수 있다.
일 실시예에서 사용자입력부(130)는 디스플레이(121) 주변의 베젤영역에 대한 사용자의 터치를 검출할 수 있는 터치감지부를 포함할 수 있다.
일 실시예에서 사용자로부터 발화된 음성을 수신할 수 있는 마이크로폰(150)와 같은 소리수신부(130)가 사용자입력부(130)에 포함될 수 있다.
일 실시예에서, 사용자입력부(130)는 영상데이터에 대한 프라이버시 처리의 기준이 되는 설정 거리에 대한 사용자입력을 수신할 수 있다. 예를 들면, 사용자입력부(130)를 통해, 설정 거리 또는 설정 거리에 대응하는 기준 위치를 설정 또는 조정(변경)하기 위한 사용자입력이 수신될 수 있다.
전자장치(100)는 저장부(140)를 포함할 수 있다. 저장부(140)는 디지털화된 데이터를 저장한다. 저장부(140)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(storage)와, 프로세서(180)에 의해 처리되기 위한 데이터가 로딩되며 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(memory)를 포함한다. 스토리지에는 플래시메모리(flash-memory), HDD(hard-disc drive), SSD(solid-state drive) ROM(Read Only Memory) 등이 있으며, 메모리에는 버퍼(buffer), 램(RAM; Random Access Memory) 등이 있다.
전자장치(100)는 마이크로폰(150)을 포함할 수 있다. 마이크로폰(150)은 사용자 음성을 비롯한 외부 환경의 소리를 수집한다. 마이크로폰(150)은 수집된 소리의 신호를 프로세서(180)에 전달한다. 전자장치(100)는 사용자 음성을 수집하는 마이크로폰(150)을 구비하거나, 또는 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다. 외부장치에 리모트 컨트롤러 어플리케이션을 설치하여 전자장치(100)를 제어하거나 음성 인식 등의 기능을 수행할 수도 있다. 이와 같은 어플리케이션이 설치된 외부장치의 경우, 사용자 음성을 수신할 수 있으며, 외부장치는 전자장치(100)와 Wi-Fi/BT 또는 적외선 등을 이용하여 데이터 송수신 및 제어가 가능한 바, 상기 통신 방식을 구현할 수 있는 복수의 인터페이스부(110)가 전자장치(100) 내에 존재할 수 있다.
전자장치(100)는 스피커(160)를 포함할 수 있다. 스피커(160)는 프로세서(180)에 의해 처리되는 오디오 데이터를 소리로 출력한다. 스피커(160)는 어느 한 오디오 채널의 오디오 데이터에 대응하게 마련된 단위 스피커를 포함하며, 복수 오디오 채널의 오디오 데이터에 각기 대응하도록 복수의 단위 스피커를 포함할 수 있다. 다른 실시예로서, 스피커(160)는 전자장치(100)와 분리되어 마련될 수 있으며, 이 경우 전자장치(100)는 오디오 데이터를 인터페이스부(110)를 통하여 스피커(160)로 전달할 수 있다.
전자장치(100)는 센서(170)를 포함할 수 있다. 센서(170)는, 전자장치(100)의 상태 또는 전자장치(100) 주변의 상태를 감지하고, 감지된 정보를 프로세서(180)로 전달할 수 있다. 센서(170)는, 카메라를 포함한다.
이 외에도 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
전자장치(100)는 프로세서(180)를 포함할 수 있다. 프로세서(180)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(system on chip)로 구현될 수도 있다. 프로세서(180)는 전자장치(100)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현될 수 있다. 예를 들면, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.
프로세서(180)는 마이크로폰(150) 등에 의해 사용자 음성에 대한 음성신호를 획득하면, 음성신호를 음성데이터로 변환할 수 있다. 이 때, 음성데이터는 음성신호를 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정을 통해 얻어진 텍스트 데이터일 수 있다. 프로세서(180)는 음성데이터가 나타내는 커맨드를 식별하고, 식별된 커맨드에 따라서 동작을 수행한다. 음성데이터 처리 과정과, 커맨드 식별 및 수행 과정은, 전자장치(100)에서 모두 실행될 수도 있다. 그러나, 이 경우에 전자장치(100)에 필요한 시스템 부하 및 소요 저장용량이 상대적으로 커지게 되므로, 적어도 일부의 과정은 네트워크를 통해 전자장치(100)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행될 수 있다.
본 발명에 따른 프로세서(180)는 전자장치(100)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 소프트웨어의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 전자장치(100)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
한편, 프로세서(180)는 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고, 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 식별된 사용자 관련 정보에 기초하여 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하고, 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송하기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.
프로세서(180)는 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고, 식별된 사용자 관련 정보에 기초하여 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하여 인공지능 모델의 입력으로 사용하는 데에 적합한 형태로 변환할 수 있다. 인공지능 모델은 학습을 통해 만들어 질 수 있다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다.
추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론(Knowledge based Reasoning), 최적화 예측(Optimization Prediction), 선호 기반 계획(Preference-based Planning), 추천(Recommendation) 등을 포함한다
일 예로, 프로세서(180)는 학습부 및 인식부의 기능을 함께 수행할 수 있다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 일 예로, 학습부는 학습 데이터를 저장부(140) 또는 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성할 수 있다.
학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.
한편 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득할 수 있다. 타겟 데이터는 저장부(140) 또는 외부로부터 획득된 것일 수 있다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 출력값을 획득할 수 있다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득할 수 있다.
일 예로, 본 발명에 따른 전자장치(100)의 제어방법은 컴퓨터 프로그램 제품 (Computer Program Product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은, 앞서 설명한, 프로세서(180)에 의해 실행되는 소프트웨어의 명령어들을 포함할 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
도 3은 본 발명의 일 실시예에 따른 전자장치의 동작 흐름도를 도시한 도면이다.
본 발명의 일 실시예에 따르면, 전자장치(100)는 영상통화(화상통화) 기능을 지원할 수 있다. 전자장치(100)에 영상통화 어플리케이션이 설치 및 실행됨에 따라, 영상통화 기능이 활성화됨으로써, 사용자에게 영상통화 서비스가 제공될 수 있다. 본 발명에서, 영상통화는 하나 또는 둘 이상의 상대방과 이루어지는 영상회의(화상회의)를 포함한다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별한다(S310).
제1카메라는 외장형으로써, 프로세서(180)는 인터페이스부(110)를 통해 제1카메라에 의해 획득된 데이터를 수신한다. 이 때, 음성이나 사운드의 경우, 전자장치(100)에 구비된 마이크로폰(150)으로부터 수집하거나, 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다.
사용자 관련 정보란 사용자 영역과 관련된 정보를 의미하며, 보다 구체적으로는, 영상통화의 특성상 통화를 하는 사용자의 얼굴(이목구비, 얼굴형, 헤어스타일 등), 사용자의 몸(오브젝트), 사용자의 목소리, 사용자 앞 혹은 뒤에 나타나는 물체나 배경, 화면에서 얼굴의 위치, 화면 비율, 화면 비율과 얼굴/오브젝트 비율 간 관계 등을 포함한다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 식별된 사용자 관련 정보에 기초하여 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별한다(S320).
이 때, 제2카메라는 제1카메라와 마찬가지로 외장형일 수 있고, 한편, 다른 실시예로서, 전자장치(100)는 전자장치(100) 주변을 촬상할 수 있는 카메라를 구비할 수 있다. 제2카메라가 외장형인 경우, 일 실시예로 유선 인터페이스(111) 혹은 무선 인터페이스(112)를 통해 연결되어 전자장치(100)에 거치된 형태로 존재할 수 있다.
프로세서(180)는 제1카메라에서 다른 카메라인 제2카메라로 전환할 것을 요청하는 신호를 수신할 수 있다. 카메라 전환 요청은 인터페이스부(110)를 통해 외부장치로부터 수신하거나 사용자입력부(130)를 통해 수신할 수 있다.
사용자 영역은 사용자가 위치하는 영역을 의미하는 것으로, 예컨대, 사용자의 얼굴을 포함하는 얼굴 영역과 몸을 포함하는 오브젝트 영역을 포함한다. 프로세서(180)는 영상 인식 기술, 예컨대, 적외선 센서나 특징점을 추출하는 기술 등을 이용하여 사용자 얼굴을 식별할 수 있다. 그리고, 얼굴로 인식되는 영역에서 중심점을 기준으로 일정 범위 내 영역을 얼굴 영역으로 설정하고, 얼굴과 사용자의 몸을 포함하는 영역을 오브젝트 영역으로 설정할 수 있다.
보다 구체적인 실시예는 도 4를 참조하여 설명한다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송한다(S330).
카메라가 제1카메라에서 제2카메라로 전환됨에 따라, 카메라의 화각이나 사용자와 카메라 간의 거리, 위치 등의 차이로 인하여 표시되는 영상에 차이가 있을 수 있다.
본 발명의 일 실시예에서는 이러한 영상의 차이로 인해 나타나는 불필요하거나 원하지 않는 영상의 부분이 표시되는 것을 방지하기 위해, 프로세서(180)는 제1영상 내 식별된 사용자 관련 정보에 기초하여 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 영상통화의 상대방 장치로 전송한다. 보다 구체적인 실시예는 도 5를 참조하여 설명한다.
본 발명의 일 실시예에 따르면, 영상통화 중 카메라의 전환에 따라 발생하는 영상의 차이를 최소화하여 자연스러운 카메라 전환 서비스를 제공할 수 있다. 또한, 카메라 전환에 의해 영상에서 사용자가 원하지 않는 배경이나 사람의 노출을 방지함으로써 사생활 보호에도 기여할 수 있다. 이를 통해, 영상통화에서 필요한 대상을 상대방에게 송출하여 통화 집중도를 높일 수 있고, 이는 영상회의 등에서 업무 효율성을 높이는 요인이 될 수 있다.
도 4는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
본 도면은 도 3의 S320과 관련하여, 제1영상(10) 내 사용자영역의 위치 또는 크기에 기초하여 제2영상(20) 내 사용자 영역을 식별하는 모습을 도시한다.
사용자 영역(410, 420)은, 앞서 설명한 바와 같이, 사용자가 위치하는 영역을 의미하는 것으로, 예컨대, 사용자의 얼굴을 포함하는 얼굴 영역(411, 421)과 몸을 포함하는 오브젝트 영역(412, 422)을 포함한다.
사용자 영역을 식별하는 것은 추후 다른 영상과 비교하여 다른 영상에서 제1영상에 대응되는 영역을 식별할 수 있을 정도의 특징을 식별하는 것을 의미한다. 보다 구체적으로 영상 전체의 영역 또는 화면 영역에 대한 사용자 영역의 위치 혹은 크기 특성을 식별하는 것을 포함한다.
프로세서(180)는 제1카메라에 의해 표시되는 제1영상(10)에서는 먼저 얼굴 영역(411)과 오브젝트 영역(412)을 식별하고, 각 영역에 관련된 정보를 추출한다.
일 예로, 프로세서(180)는 얼굴 영역(411)에서 사용자의 이목구비와 얼굴형, 눈썹모양, 헤어스타일을 인식하고, 오브젝트 영역(412)에서 사용자가 착용하고 있는 옷의 형태나 종류, 색상, 사용자의 포즈 등을 인식한다.
이 외에도, 프로세서(180)는 사용자입력부(130)를 통해 수신되는 사용자입력에 기초하여 영상 내 사용자 영역을 식별할 수 있다. 이 때, 사용자입력은 사용자 음성 입력을 포함한다. 프로세서(180)는 인식한 사용자의 얼굴과 수신되는 사용자의 음성을 대응하여 저장부(150)에 저장할 수 있다.
한편, 제1영상(10)의 경우 제1카메라는 외장형으로써 프로세서(180)는 인터페이스부(110)를 통해 제1카메라에 의해 획득된 데이터를 수신하는 바, 인터페이스부(110)를 통해 제1카메라를 포함하는 외부장치로부터 제1영상(10)에 관련된 정보를 함께 수신할 수 있다.
본 발명의 일 실시예에 따른 사용자 관련 정보는 영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함한다. 프로세서(180)는 제1영상(10) 내 사용자영역(410)의 위치 또는 크기에 기초하여 제2영상(20) 내 사용자 영역(420)을 식별할 수 있다.
프로세서(180)는 얼굴 영역(411)의 화면 상의 위치, 오브젝트 영역(412)의 화면 상의 위치, 화면 비율, 화면 비율과 얼굴 영역(411),오브젝트 영역(412) 비율 간 관계 등을 식별하고, 그에 기초하여 제1영상(10) 내 사용자영역(410)의 위치 또는 크기에 기초하여 제2영상(20) 내 사용자 영역(420)을 식별할 수 있다.
도 4에 도시된 바와 같이, 제1영상(10)이 표시되는 화면의 세로, 가로 길이가 각각 x, y이고, 제1영상(10)에서 식별된 얼굴 영역(411)의 세로, 가로 길이는 x', y', 오브젝트 영역(412)의 세로, 가로 길이는 x'', y'' 이다. 이 때, 화면 및 각 영역의 비율을 계산의 편의상 x:y, x':y', x'':y''로 둔다.
프로세서(180)는 제2카메라에 의해 획득된 제2영상(20)에서도 마찬가지로 얼굴 영역(421)과 오브젝트 영역(422)을 포함하는 사용자 영역(420)을 식별한다. 제2영상(20)의 세로, 가로 길이가 각각 a, b이고, 제2영상(20)에서 식별된 얼굴 영역(421)의 세로, 가로 길이는 a', b', 오브젝트 영역(422)의 세로, 가로 길이는 a'',b''이다. 이 때, 화면 및 각 영역의 비율을 계산의 편의상 a:b, a':b', a'':b''로 둔다. 또한 본 도면은 원근법을 고려하지 않고 도시한 것으로, 제1영상(10)과 제2영상(20)의 크기는 보이는 것과 달리 a가 x보다 훨씬 클 수 있다. 이하 나머지 도면에서 마찬가지이다.
이 때, 제2카메라에 의해 획득된 제2영상(20)의 경우 사용자를 포함하여 복수의 인물이 표시되는 바, 프로세서(180)는 각 인물 별로 사용자 영역을 식별할 수 있다. 프로세서(180)는 제2영상(20) 내에서 식별된 사용자 영역 중에서 제1영상(10)에서 식별된 사용자 영역(410)과 대응하는 사용자 영역(420)을 특정한다.
혹은 보다 빠른 처리를 위하여 프로세서(180)는 제2영상(20)에서 제1영상(10) 내 사용자 영역(410)과 대응하는 사용자 영역(420)을 식별한 경우 나머지 인물에 대한 사용자 영역 식별 처리를 중단할 수 있다.
이 외에도 사용자 관련 정보는 카메라의 화각에 관한 정보를 포함한다. 프로세서(180)는 제1카메라의 화각과 제2카메라의 화각 간의 관계에 기초하여 제2영상 내 사용자 영역을 식별할 수 있다.
본 발명의 일 실시예에 따르면, 제1영상 내 사용자 영역을 식별하여 전환되는 제2영상에서 제1영상의 사용자 영역에 대응하는 영역을 보다 정확하게 식별할 수 있다.
도 5는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
본 도면은 도 3의 S330과 관련하여, 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 모습을 도시한다.
제1영상(10) 내 사용자 영역과 제2영상(20) 내 사용자 영역을 식별하는 구성은 도 4에서 설명한 바와 같다.
앞서 도 4와 관련하여 서술한 바와 동일하게, 프로세서(180)는 제1영상(10)에서 사용자 영역(410)을 식별하고, 제2영상(20)에서 그에 대응되는 사용자 영역(420)을 포함하는 제2영상(20)의 일부 영상(431)을 식별한다. 일부 영상(431)은 영상통화의 상대방 장치로 전송하게 되는 통화영상을 의미한다. 프로세서(180)는 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송할 수 있다. 본 발명의 일 실시예에 따르면, 프로세서(180)는 제2영상(20)의 불필요한 부분을 크롭(crop)하여 일부 영상(431)을 획득할 수 있다.
이외에도 프로세서(180)는 획득한 일부 영상(431)을 조정할 수 있다.
일 예로, 프로세서(180)는 제1영상(10)이 표시되는 화면 비율(x:y)과 사용자 영역(410)의 비율(x':y') 및 사용자 영역(410)의 크기에 기초하여, 식별된 일부 영상(431)을 제1영상(10)이 표시되는 화면 비율(x:y)과 사용자 영역(410)의 비율(x':y', x'': y'')간의 관계를 유지하면서, 디스플레이(121) 화면의 비율에 맞도록 조정하여 조정된 영상(510)을 표시할 수 있다.
도 5의 실시예에서는, 디스플레이(121)의 화면 비율과 영상(10)이 표시되는 화면 비율이 상이하다. 이 경우, 먼저 표시된 제1영상(10)이 표시되는 화면이 세로로 긴 점에 비추어, 프로세서(180)는 제1영상이 표시되는 화면의 세로(x)와 제1영상의 얼굴 영역(411)의 화면의 세로(x') 의 비율인 x: x'에 기초하여, 조정된 영상(510)이 디스플레이(121) 화면의 세로(a)와 조정된 영상(510)의 얼굴 영역(421)의 세로(a')의 비율 a:a'가 비율 x:x'에 대응하도록 조정할 수 있다. 다만, 이에 한정되지 않고, 프로세서(180)는 영역의 비율 뿐만 아니라, 영역의 위치(영역이 화면 내 가로, 세로 방향으로 어디에 위치하는지 등)에 대응하도록 조정할 수 있다. 이 때, 본 도면에서는 디스플레이(121) 화면과 제2영상(20)의 크기가 동일하다고 가정한다.
도 6은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 6에서는 앞서 설명한 본 발명의 동작의 구체적인 예를 설명한다.
사용자는 외부장치(200)를 이용하여 영상통화를 진행하고 있다. 외부장치는, 일 예로, 휴대폰일 수 있다. 사용자는 외부장치(200)에 내장된 카메라로 영상통화를 하다가, 전자장치(100)를 이용하여 영상통화를 진행하고자 한다.
프로세서(180)는 외부장치(200), 인터페이스부(110), 혹은 사용자입력부(130) 중 어느 하나를 통해 카메라 전환을 요청하는 사용자입력을 수신한 것에 기초하여 영상통화 어플리케이션을 실행하고, 영상통화 기능을 활성화 시킨다.
이 때, 프로세서(180)는 외부장치(200)에 표시된 영상(610)에 대한 데이터를 수신하여 영상(610)의 사용자 영역을 식별하거나, 영상(610)의 사용자 영역에 관한 정보를 인터페이스부(110)를 통해 수신할 수 있다. 프로세서(180)는 외부장치(200)로부터 인터페이스부(110)를 통해 사용자 영역에 관한 정보를 수신한 경우, 프로세서(180)는 수신한 정보를 기초로 사용자를 자동으로 탐색하고 수신한 정보에 포함된 화면의 비율과 동일한 비율로 영상을 잘라내어(crop) 디스플레이(121)에 표시할 수 있다.
프로세서(180)는 전자장치(100)와 연결된 다른 카메라를 이용하여 영상을 획득하고, 획득된 영상을 영상(610)의 사용자 영역에 대응하도록 영상(620)을 디스플레이(121)에 표시할 수 있다. 프로세서(180)는 식별한 영상(620)을 내 인터페이스부(110)를 통해 영상통화의 상대방 장치로 전송할 수 있다.
외부장치(200)에서 수행되던 영상통화 기능이 전자장치(100)에서 활성화 됨에 따라 전환된 카메라에 기초하여 획득되는 영상은 앞선 도면에서 기술한 바와 같이 영상(610)에 대응하도록 조정된다.
프로세서(180)는 제1카메라에서 제2카메라로의 전환에 대응하여 영상(620)의 표시가 준비되는 동안, 즉, 사용자 영역이 식별되는 동안 상대방 장치로 영상(610)을 전송하거나 다른 영상으로 대체하여 전송할 수 있다. 이는 영상(620)의 표시가 미처 준비되지 못한 채 제2카메라로 표시되는 영상을 그대로 송출하는 경우 여전히 사용자가 원하지 않는 영상이 노출될 가능성이 있기 때문이다. 따라서, 영상(620) 표시 전 영상(610)이 일부 딜레이 되어 표시되거나, 화면 자체가 뿌옇게(blurring) 처리되거나, 화면이 준비 중임을 나타내는 화면을 표시하는 등 다양한 실시예가 적용될 수 있다.
도 7은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다. 도 7은 도 6에서 프로세서(180)가 상대방 장치로 영상(620)을 전송한 이후의 전자장치의 동작모습을 도시한다.
본 발명의 일 실시예에 따른 전자장치(100)는 사용자입력부(130)를 더 포함할 수 있다. 프로세서(180)는 사용자입력부(130)를 통해 수신되는 사용자입력에 기초하여, 영상(620) 내 사용자영역을 조정하고, 조정된 사용자영역에 대응하는 통화영상을 상대방 장치로 전송할 수 있다.
프로세서(180)는 영상(620) 내 사용자영역을 나타내는 UI(User Interface)를 표시하고, UI를 이용하여 수신되는 사용자입력에 기초하여 영상(620) 내 사용자영역을 조정할 수 있다.
영상(620)이 영상(610)의 사용자 영역에 대응하도록 표시되고 난 뒤에는 사용자는 자신이 의도하는 부분을 추가로 표시하거나, 확대/축소시켜 표시하는 등 다양하게 조정할 수 있다.
사용자입력부(130)는 영상을 조정하는 사용자 입력을 수신할 수 있는 다양한 입력수단, 예컨대, 전자장치(100)에 마련된 물리적 버튼이나 터치패드(또는 입력패널)를 포함한다. 프로세서(180)는 디스플레이(121)에 영상을 조정할 수 있는 그래픽 유저 인터페이스(GUI: Graphic Usr Interface)를 표시하고, 터치패트를 통해 영상을 조정하는 사용자 입력을 수신할 수 있다. 혹은, 전자장치(100)와 이격 분리되어, 유, 무선 인터페이스부(110)를 통해 제어 가능한 신호를 전송하는 입력장치, 예컨대, 리모컨(remote control), 키보드(keyboard), 마우스(mouse) 등으로부터 표시된 GUI에서 영상을 조정하는 사용자 입력을 수신할 수 있다.
도 7과 같이 사용자의 옆에 앉은 다른 사람을 함께 표시하고 싶은 경우, 프로세서(180) 사용자입력부(130)를 통해 수신되는 사용자입력에 기초하여, 영상(620)을 영상(710)과 같이 조정하여 디스플레이(121)에 표시한다.
본 발명의 일 실시예에 따르면, 먼저 카메라를 자연스럽게 전환하여 전환 전 후의 영상에 불필요한 부분이 표시되는 것을 방지하고, 사용자가 원하는 영상을 송출할 수 있도록 하여 사용자의 편의를 높일 수 있다.
도 8은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다. 도 8은 도 6에서 프로세서(180)가 영상(620)을 표시한 이후의 전자장치의 동작모습을 도시한다.
도 8은 도 7에서 설명한 동작을 외부장치(200)를 이용하여 동작하는 것을 나타낸다. 프로세서(180)는 인터페이스부(110)를 통해 유선 혹은 무선으로 외부장치(200)와 연결될 수 있다.
프로세서(180)는 영상(620)의 데이터와, 외부장치(200)가 영상(620) 내 사용자영역을 조정하도록 영상(620) 내 사용자영역에 관한 정보를 인터페이스부(110)를 통해 외부장치(200)로 전송한다.
본 실시예에서 외부장치(200)는 리모컨 어플리케이션이 설치된 스마트폰과 같은 단말장치를 포함하며, 이 경우 터치스크린을 통한 사용자의 터치입력이 수신 가능하다. 외부장치(200)는 전자장치(100) 본체와 무선통신이 가능하며, 무선통신은 블루투스, 적외선 통신, RF 통신, 무선랜, 와이파이 다이렉트 등을 포함한다.
외부장치(200)는 수동으로 배율을 조정할 수 있는 소프트웨어를 통해, 사용자입력에 기초하여 영상(620)을 조정한다. 배율 조정 소프트웨어에는 원본 데이터에 대비하여 크롭되는 범위와 좌표를 설정할 수 있다.
외부장치(200)는 영상(620)를 확대하는 사용자입력을 수신하여, 영상(620)을 확대하고, 이를 전자장치(100)로 드래그 앤 드롭(drag & drop)하여 다시 전송한다.
이 때, 외부장치(200)에서 수행될 수 있는 사용자입력은 확대 뿐만 아니라 영상 편집과 관련하여 적용될 수 있는 기술에는 제한이 없고, 외부장치(200)에서 전자장치(100)로 다시 영상을 전송하는 기술은 드래그 앤 드롭 이외에도 다양하게 실시될 수 있다.
또한, 원격 기술이 적용되어, 드래그 앤 드롭 등 전송 기술과 상관없이 실시간으로 조정이 가능할 수 있다.
프로세서(180)는 인터페이스부(110)를 통해 수신한 영상(810)을 디스플레이(121)에 표시하거나, 인터페이스부(110)를 통해 수신한 사용자 입력에 기초하여 영상(620)을 영상(810)가 되도록 조정한다.
본 발명의 일 실시예에 따르면, 영상을 조정함에 있어서 무선 단말 등 외부 단말 장치를 이용하여 편리하게 조작할 수 있다.
100: 전자장치
110: 인터페이스부
120: 디스플레이부
130: 사용자입력부
140: 저장부
150: 마이크로폰
160: 스피커
170: 센서
180: 프로세서

Claims (20)

  1. 전자장치에 있어서,
    인터페이스부;
    디스플레이; 및
    제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하고,
    상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하고,
    상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 상기 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는
    프로세서를 포함하는 전자장치.
  2. 제1항에 있어서,
    상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고,
    상기 프로세서는,
    상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 전자장치.
  3. 제1항에 있어서,
    상기 사용자 관련 정보는 상기 제1카메라의 화각에 관한 정보를 포함하고,
    상기 프로세서는,
    상기 제1카메라의 화각과 상기 제2카메라의 화각 간의 관계에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 전자장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 인터페이스부를 통해 상기 제1카메라를 포함하는 외부장치로부터 상기 사용자 관련 정보를 수신하는 전자장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 제1카메라에서 상기 제2카메라로의 전환에 대응하여, 상기 제2영상 내 사용자 영역이 식별되는 동안 상기 상대방 장치로 상기 제1영상을 전송하거나 다른 영상으로 대체하여 전송하는 전자장치.
  6. 제1항에 있어서,
    상기 제2카메라를 더 포함하는 전자장치.
  7. 제1항에 있어서,
    사용자입력부를 더 포함하고,
    상기 프로세서는,
    상기 사용자입력부를 통해 수신되는 사용자 입력에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 전자장치.
  8. 제7항에 있어서,
    상기 사용자입력은 사용자 음성 입력을 포함하는 전자장치.
  9. 제1항에 있어서,
    사용자입력부를 더 포함하고,
    상기 프로세서는,
    상기 사용자입력부를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고,
    상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송하는 전자장치.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 제2영상 내 사용자영역을 나타내는 UI(User Interface)를 표시하고,
    상기 UI를 이용하여 수신되는 상기 사용자입력에 기초하여 상기 제2영상 내 사용자영역을 조정하는 전자장치.
  11. 제1항에 있어서,
    상기 프로세서는,
    외부장치를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하고,
    상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송하는 전자장치.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 외부장치가 상기 제2영상 내 사용자영역을 조정하도록 상기 제2영상 내 사용자영역에 관한 정보를 상기 인터페이스부를 통해 상기 외부장치로 전송하는 전자장치.
  13. 전자장치의 제어방법에 있어서,
    제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계;
    상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및
    상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법.
  14. 제13항에 있어서,
    상기 사용자 관련 정보는 상기 제1영상 내 사용자영역의 위치 또는 크기 중 적어도 하나에 관한 정보를 포함하고,
    상기 제2영상 내 사용자 영역을 식별하는 단계는,
    상기 제1영상 내 사용자영역의 위치 또는 크기에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법.
  15. 제13항에 있어서,
    상기 사용자 관련 정보는 상기 제1카메라의 화각에 관한 정보를 포함하고,
    상기 제2영상 내 사용자 영역을 식별하는 단계는,
    상기 제1카메라의 화각과 상기 제2카메라의 화각 간의 관계에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법.
  16. 제13항에 있어서,
    상기 인터페이스부를 통해 상기 제1카메라를 포함하는 외부장치로부터 상기 사용자 관련 정보를 수신하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법.
  17. 제13항에 있어서,
    상기 제1카메라에서 상기 제2카메라로의 전환에 대응하여, 상기 제2영상 내 사용자 영역이 식별되는 동안 상기 상대방 장치로 상기 제1영상을 전송하거나 다른 영상으로 대체하여 전송하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법.
  18. 제13항에 있어서,
    상기 제2영상 내 사용자 영역을 식별하는 단계는,
    상기 사용자입력부를 통해 수신되는 사용자 입력에 기초하여 상기 제2영상 내 사용자 영역을 식별하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법.
  19. 제13항에 있어서,
    외부장치를 통해 수신되는 사용자입력에 기초하여, 상기 제2영상 내 사용자영역을 조정하는 단계; 및
    상기 조정된 사용자영역에 대응하는 통화영상을 상기 상대방 장치로 전송하는 단계를 포함하는 것을 특징으로 하는 전자장치의 제어방법.
  20. 컴퓨터가 읽을 수 있는 코드로서, 전자장치의 제어방법을 수행하는 코드를 포함하는 컴퓨터 프로그램이 저장된 기록매체에 있어서, 상기 전자장치의 제어방법은,
    제1카메라에 의해 획득된 제1영상의 사용자 관련 정보를 식별하는 단계;
    상기 제1카메라에서 다른 제2카메라로의 전환에 대응하여, 상기 식별된 사용자 관련 정보에 기초하여 상기 제2카메라에 의해 획득된 제2영상 내 사용자 영역을 식별하는 단계; 및
    상기 식별한 제2영상 내 사용자 영역에 대응하는 통화영상을 인터페이스부를 통해 영상통화의 상대방 장치로 전송하는 단계를 포함하는 것을 특징으로 하는 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체.
KR1020200114720A 2020-09-08 2020-09-08 전자장치 및 그 제어방법 KR20220032867A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200114720A KR20220032867A (ko) 2020-09-08 2020-09-08 전자장치 및 그 제어방법
PCT/KR2021/011830 WO2022055174A1 (ko) 2020-09-08 2021-09-02 전자장치 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200114720A KR20220032867A (ko) 2020-09-08 2020-09-08 전자장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20220032867A true KR20220032867A (ko) 2022-03-15

Family

ID=80632281

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200114720A KR20220032867A (ko) 2020-09-08 2020-09-08 전자장치 및 그 제어방법

Country Status (2)

Country Link
KR (1) KR20220032867A (ko)
WO (1) WO2022055174A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9030520B2 (en) * 2011-06-20 2015-05-12 Polycom, Inc. Automatic camera selection for videoconferencing
US20120327176A1 (en) * 2011-06-21 2012-12-27 Broadcom Corporation Video Call Privacy Control
KR101917698B1 (ko) * 2012-09-14 2018-11-13 엘지전자 주식회사 Sns시스템 및 그의 sns정보 보호방법
US9124762B2 (en) * 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
KR102094509B1 (ko) * 2014-07-31 2020-03-27 삼성전자주식회사 촬영 제한 요소를 포함하는 영상을 수정하는 방법, 이를 수행하기 위한 디바이스 및 시스템

Also Published As

Publication number Publication date
WO2022055174A1 (ko) 2022-03-17

Similar Documents

Publication Publication Date Title
CN109361865B (zh) 一种拍摄方法及终端
CN109361869B (zh) 一种拍摄方法及终端
CN111541845B (zh) 图像处理方法、装置及电子设备
CN107817939B (zh) 一种图像处理方法及移动终端
CN110602401A (zh) 一种拍照方法及终端
WO2019174628A1 (zh) 拍照方法及移动终端
CN110365907B (zh) 一种拍照方法、装置及电子设备
US9148586B2 (en) Terminal apparatus for combining images from two different cameras based on detected sound
CN108924412B (zh) 一种拍摄方法及终端设备
US20230013753A1 (en) Image shooting method and electronic device
CN109218626B (zh) 一种拍照方法及终端
CN108848309B (zh) 一种相机程序启动方法及移动终端
US9491401B2 (en) Video call method and electronic device supporting the method
WO2020093798A1 (zh) 一种显示目标图像的方法、装置、终端及存储介质
KR20160127606A (ko) 이동 단말기 및 그 제어 방법
CN109246351B (zh) 一种构图方法及终端设备
CN108616687B (zh) 一种拍照方法、装置和移动终端
CN111447365B (zh) 一种拍摄方法及电子设备
US11032529B2 (en) Selectively applying color to an image
CN110807769B (zh) 图像显示控制方法及装置
CN110086998B (zh) 一种拍摄方法及终端
CN109639981B (zh) 一种图像拍摄方法及移动终端
US20240121501A1 (en) Electronic apparatus and method of controlling the same
CN108924413B (zh) 拍摄方法及移动终端
WO2021185142A1 (zh) 图像处理方法、电子设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination