KR20210086103A - 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법 - Google Patents

디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법 Download PDF

Info

Publication number
KR20210086103A
KR20210086103A KR1020190179808A KR20190179808A KR20210086103A KR 20210086103 A KR20210086103 A KR 20210086103A KR 1020190179808 A KR1020190179808 A KR 1020190179808A KR 20190179808 A KR20190179808 A KR 20190179808A KR 20210086103 A KR20210086103 A KR 20210086103A
Authority
KR
South Korea
Prior art keywords
video call
display device
mobile device
user
screen
Prior art date
Application number
KR1020190179808A
Other languages
English (en)
Inventor
이종인
김세현
양관식
최길수
고은아
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190179808A priority Critical patent/KR20210086103A/ko
Priority to EP20217565.9A priority patent/EP3846483A1/en
Priority to CN202011620570.2A priority patent/CN113132668A/zh
Priority to PCT/KR2020/019430 priority patent/WO2021137629A1/en
Priority to US17/139,570 priority patent/US11240466B2/en
Publication of KR20210086103A publication Critical patent/KR20210086103A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1831Tracking arrangements for later retrieval, e.g. recording contents, participants activities or behavior, network status
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/06Details of telephonic subscriber devices including a wireless LAN interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N2007/145Handheld terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Telephone Function (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

개시된 실시예에 따른 디스플레이 기기는 디스플레이; 카메라; 모바일 기기를 포함하는 외부 기기와 통신하는 통신부; 및 적어도 하나의 인스트럭션을 실행하는 프로세서를 포함한다. 상기 프로세서는 모바일 기기로부터 수신되는 영상 통화 요청에 근거하여 상기 카메라를 활성화시키며, 상기 통신부를 통해 영상 통화의 상대방에 대한 이미지 데이터를 획득하고, 상기 이미지 데이터에 근거하여 생성되는 상기 상대방에 대한 제1 이미지 및 상기 카메라에서 획득된 제2 이미지를 포함하는 영상 통화 화면이 상기 디스플레이를 통하여 출력되도록 제어한다.

Description

디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법 {Display device, mobile device, video calling method performed by a display device thereof, video calling method performed by a mobile device thereof}
개시된 실시예는 영상 통화를 수행할 수 있는 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법에 대한 것이다.
유무선 통신 네트워크의 발달로, 화면을 디스플레이 하여 사용자가 시각적으로 인식할 수 있는 데이터를 출력하는 전자기기들이 유무선 통신 네트워크를 통하여 상호 연결될 수 있다.
전자기기들 상호간은 유무선 통신 네트워크를 통하여 각종 데이터를 송수신할 수 있으며, 일 전자기기에서 다른 전자기기를 원격으로 제어하거나 일 전자기기를 다른 전자기기를 통하여 이용할 수 있다.
유무선 통신 네트워크를 통하여 상호 연결 가능한 전자 기기들로는, 노트북, 넷북 또는 태블릿 PC 등과 같은 휴대용 컴퓨터, 스마트 폰 또는 PDA와 같은 휴대용 단말기, TV 등을 예로 들 수 있다.
전자 기기들을 상호 연결하여 이용하면, 사용자가 보다 편리하게 원하는 서비스 또는 기능을 제공받을 수 있다.
따라서, 사용자의 만족도 및 편리성을 높이기 위해서는 사용자의 요구 사항 및 원하는 서비스에 맞춰서, 전자기기들을 상호 연결하여 이용할 수 있도록 하는 장치 및 방법을 제공할 필요가 있다.
개시된 실시예는 사용자가 보다 편리하게 영상 통화 화면을 보면서 영상 통화를 할 수 있도록 하는, 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 제공한다.
구체적으로, 개시된 실시예는, 사용자가 모바일 기기에 비하여 큰 크기를 갖는 화면을 갖는 디스플레이 기기를 통하여 영상 통화 화면을 보면서 영상 통화를 함으로써, 사용자의 편리성 및 사용자의 만족도를 높일 수 있도록 하는, 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 제공한다.
개시된 실시예에 따른 디스플레이 기기는 디스플레이; 카메라; 모바일 기기를 포함하는 외부 기기와 통신하는 통신부; 및 적어도 하나의 인스트럭션을 실행하는 프로세서를 포함한다. 여기서, 프로세서는 모바일 기기로부터 수신되는 영상 통화 요청에 근거하여 상기 카메라를 활성화시키며, 상기 통신부를 통해 영상 통화의 상대방에 대한 이미지 데이터를 획득하고, 상기 이미지 데이터에 근거하여 생성되는 상기 상대방에 대한 제1 이미지 및 상기 카메라에서 획득된 제2 이미지를 포함하는 영상 통화 화면이 상기 디스플레이를 통하여 출력되도록 제어한다.
개시된 실시예에 따른 모바일 기기는 디스플레이; 카메라; 사용자 인터페이스; 디스플레이 기기를 포함하는 외부 기기와 통신하는 통신부; 및 적어도 하나의 인스트럭션을 실행하는 프로세서를 포함한다. 그리고, 프로세서는 상기 디스플레이 기기를 통하여 영상 통화 화면이 출력되도록 요청하는 사용자 입력이 상기 사용자 인터페이스를 통하여 수신되면, 상기 사용자 입력에 대응되는 영상 통화 요청을 상기 디스플레이 기기로 전송되도록 상기 통신부를 제어하고, 상기 영상 통화의 수행을 제어하기 위한 사용자 인터페이스 화면이 상기 디스플레이를 통하여 출력되도록 제어한다.
개시된 실시예에 따른 디스플레이 기기를 통하여 수행되는 영상 통화 방법은, 모바일 기기로부터 수신되는 영상 통화 요청에 근거하여 디스플레이 기기의 카메라를 활성화하는 단계; 디스플레이 기기에서, 영상 통화의 상대방에 대한 이미지 데이터를 획득하는 단계; 및 상기 이미지 데이터에 근거하여 생성되는 상기 상대방에 대한 제1 이미지 및 상기 카메라에서 획득된 사용자에 대한 제2 이미지를 포함하는 영상 통화 화면을 상기 디스플레이 기기를 통하여 출력하는 단계를 포함한다.
개시된 실시예에 따른 모바일 기기를 통하여 수행되는 영상 통화 방법은, 모바일 기기에서, 디스플레이 기기를 통하여 영상 통화 화면이 출력되도록 요청하는 사용자 입력을 수신하는 단계; 상기 사용자 입력에 대응되는 영상 통화 요청을 상기 모바일 기기에서 상기 디스플레이 기기로 전송하는 단계; 및 상기 모바일 기기의 디스플레이를 통하여, 상기 영상 통화의 수행을 제어하기 위한 사용자 인터페이스 화면을 출력하는 단계를 포함한다.
개시된 실시예에 따른 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법은 사용자가 큰 화면으로 제공되는 영상 통화 화면을 보면서 영상 통화를 할 수 있도록 한다. 그에 따라서, 영상 통화 동안의 사용자의 편리성 및 사용자의 만족도를 높일 수 있다.
도 1을 참조하면, 개시된 실시예에서 따라서 통신 네트워크를 통하여 상호 연결되는 모바일 기기 및 디스플레이 기기를 나타내는 도면이다.
도 2는 개시된 실시예에 따른 영상 통화 방법을 개략적으로 설명하기 위한 도면이다.
도 3은 개시된 실시예에 따른 디스플레이 기기를 나타내는 일 블록도이다.
도 4은 개시된 실시예에 따른 디스플레이 기기를 나타내는 다른 블록도이다.
도 5는 개시된 실시예에 따른 모바일 기기를 나타내는 일 블록도이다.
도 6은 개시된 실시예에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 나타내는 일 흐름도이다.
도 7은 개시된 실시예에 따른 모바일 기기에서 출력하는 사용자 인터페이스 화면들을 나타내는 일 도면이다.
도 8은 개시된 실시예에 따른 모바일 기기에서 출력하는 사용자 인터페이스 화면을 나타내는 다른 도면이다.
도 9는 개시된 실시예에 따른 모바일 기기에서 출력하는 사용자 인터페이스 화면을 나타내는 다른 도면이다.
도 10은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 일 흐름도이다.
도 11은 개시된 실시예에 따른 디스플레이 기기에서 출력하는 영상 통화 화면을 나타내는 도면이다.
도 12는 개시된 실시예에 따른 영상 통화 방법을 설명하기 위한 일 도면이다.
도 13은 개시된 실시예에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다.
도 14는 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다.
도 15는 개시된 실시예에 따른 영상 통화 방법을 설명하기 위한 다른 도면이다.
도 16은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다.
도 17은 개시된 실시예에 따른 영상 통화 방법을 설명하기 위한 또 다른 도면이다.
도 18은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다.
도 19는 개시된 실시예에 따른 디스플레이 기기를 통하여 수행되는 시선 감지 동작을 설명하기 위한 일 도면이다.
도 20은 개시된 실시예에 따른 디스플레이 기기를 통하여 수행되는 시선 감지 동작을 설명하기 위한 다른 도면이다.
도 21은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다.
도 22는 개시된 실시예에 따른 디스플레이 기기에서 수행되는 화면의 전환 동작을 설명하기 위한 일 도면이다.
도 23은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 또 다른 흐름도이다.
도 24는 개시된 실시예에 따른 디스플레이 기기에서 수행되는 화면의 전환 동작을 설명하기 위한 다른 도면이다.
도 25는 개시된 실시예에 따른 디스플레이 기기에서 수행되는 화면의 전환 동작을 설명하기 위한 또 다른 도면이다.
도 26은 개시된 실시예에 따른 디스플레이 기기에서 수행되는 디스플레이의 위치 변경 동작을 설명하기 위한 도면이다.
도 27은 개시된 실시예에 따른 디스플레이 기기를 나타내는 또 다른 블록도이다.
도 28은 개시된 실시예에 따른 모바일 기기를 나타내는 다른 블록도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.
일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 프로세서 또는 마이크로프로세서들에 의해 구현되거나, 의도하는 기능을 수행하기 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립트 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 모듈 및 구성등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
또한, 'A, B, 및 C 중 적어도 하나'라는 기재는 'A', 'B', 'C', 'A 및 B', 'A 및 C', 'B 및 C', 및 'A, B, 및 C' 중 어느 하나가 될 수 있음을 의미한다.
개시된 실시예는, 사용자가 보다 편리하게 영상 통화 화면을 보면서 영상 통화를 수행할 수 있도록 하기 위한, 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법이다.
개시된 실시예에서, 휴대 가능한 형태를 갖는 전자기기를 '모바일 기기'로 칭하도록 한다. 그리고, 모바일 기기에 비하여 큰 디스플레이를 통하여 큰 화면을 제공할 수 있도록 하는 전자기기 되며, 이하에서는 '디스플레이 기기'로 칭하도록 한다.
구체적으로, 모바일 기기는 사용자가 휴대 가능한 전자 기기를 지칭하는 것으로, 웨어러블 디바이스, 스마트 폰, 태블릿 PC, PDA(personal digital assistant), 랩탑 컴퓨터, 미디어 플레이어 등이 될 수 있다. 또한, 디스플레이 기기는 전술한 모바일 기기에 비하여 큰 크기의 디스플레이를 포함하여, 모바일 기기의 화면에 비하여 큰 크기를 갖는 화면을 사용자에게 제공할 수 있는 전자기기를 의미한다. 예를 들어, 디스플레이 기기는 TV, 디지털 TV, 스마트 TV, 디지털 간판(digital signage), 디지털 표지판 등이 될 수 있다.
첨부된 도면들에 있어서, 동일한 구성 요소는 동일한 도면 기호를 이용하여 도시하였다. 또한, 상세한 설명 전체적으로, 동일한 구성은 동일한 용어로 기재하였다.
이하에서는, 첨부된 도면들을 참조하며, 개시된 실시예에 따른 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 상세히 설명하도록 한다.
도 1을 참조하면, 개시된 실시예에서 따라서 통신 네트워크를 통하여 상호 연결되는 모바일 기기 및 디스플레이 기기를 나타내는 도면이다.
모바일 기기(110)와 디스플레이 기기(120)는 유무선의 통신 네트워크를 통하여 상호 연결될 수 있다. 그리고, 개시된 실시예에서 모바일 기기(110)와 디스플레이 기기(120)를 이용하여 영상 통화 기능 또는 영상 통화 서비스를 제공할 수 있다.
여기서, 모바일 기기(110)와 디스플레이 기기(120)를 연결하는 통신 네트워크(103)는 소정 데이터를 송수신할 수 있는 유무선의 통신 네트워크를 의미한다. 예를 들어, 통신 네트워크(103)는 LAN(local area network), WAN(wide area network), WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), CDMA, WCDMA, 또는 근거리 통신(NFC), 블루투스 등과 같이 무선 네트워크 표준에 따라서 형성될 수 있다. 또한, 통신 네트워크(103)는 모바일 기기(110)와 디스플레이 기기(120) 간을 유선 케이블을 이용하여 연결하는 HDMI 케이블, MHL 케이블 등과 같은 유선 네트워크가 될 수 있다.
그리고, 도 1에서는 모바일 기기(110)가 사용자의 스마트 폰이고, 디스플레이 기기(120)는 TV, 구체적으로, 스마트 TV 인 경우를 예로 들어 도시하였다. 또한, 도 1에서는, 모바일 기기(110)와 영상 통화를 하는 상대방 기기(예를 들어, 상대방의 모바일 기기)에 대한 도시는 생략하였다.
여기서, 영상 통화는 디스플레이를 통하여 상대방에 대한 이미지, 구체적으로, 상대방에 대한 실시간 이미지를 보면서 통화를 하는 것을 의미한다. 일반적으로, 영상 통화가 수행될 때, 영상 통화를 수행하는 전자 기기, 예를 들어, 모바일 기기(110)는 디스플레이를 통하여 상대방에 대한 이미지를 포함하는 영상 통화 화면(111)을 출력한다. 이하에서는, 영상 통화가 수행되는 동작 모드를 '영상 통화 모드'라 칭하겠다.
도 1을 참조하면, 영상 통화 화면(111)은 상대방에 대한 이미지(112) 및 모바일 기기(110)의 사용자에 대한 적어도 하나의 이미지(104)를 포함할 수 있다.
이하에서는, 설명의 편의 상, 상대방에 대한 이미지를 '제1 이미지'라 칭하고, 사용자에 대한 이미지를 '제2 이미지'라 칭하도록 한다. 즉, 제1 이미지는 영상 통화의 상대방, 상대방이 위치하는 주변 환경, 및 상대방이 사용자에게 보여주고자 하는 객체 또는 환경 중 적어도 하나를 포함하는 이미지가 될 수 있다. 그리고, 제2 이미지는 영상 통화의 사용자, 예를 들어, 모바일 기기(110)의 사용자, 사용자가 위치하는 주변 환경, 및 사용자가 영상 통화의 상대방에게 보여주고자 하는 객체 또는 환경 중 적어도 하나를 포함하는 이미지가 될 수 있다.
또한, 모바일 기기(110)와 영상 통화를 수행하는 상대방 기기(미도시)가 도 1에 도시된 모바일 기기(110)와 동일한 형태를 갖는 전자기기인 경우를 예로 들어 설명한다. 즉, 영상 통화 화면(111)은 제1 이미지(104) 및 제2 이미지(112)를 포함할 수 있다.
구체적으로, 제1 이미지는 상대방 기기(미도시)의 전면 카메라(구체적으로, 모바일 기기(110)의 전면 카메라(106)에 동일 대응될 수 있음)를 통하여 영상 통화의 상대방 얼굴을 촬영하여 획득한 이미지가 될 수 있다. 그리고, 제2 이미지는 사용자의 얼굴을 촬영하여 획득한 이미지가 될 수 있다. 개시된 실시예에서, 영상 통화 화면이 디스플레이 기기(120)를 통하여 출력되는 동안에는, 영상 통화 화면에 포함되는 제2 이미지는 디스플레이 기기(120)의 전면에 배치되는 카메라(130)를 통하여 획득된 이미지가 될 수 있다. 또한, 영상 통화 화면이 디스플레이 기기(120)가 아닌 모바일 기기(110)에서 출력되는 동안에는, 영상 통화 화면에 포함되는 제2 이미지는 모바일 기기(110)의 전면 카메라(106)에서 획득된 이미지가 될 수 있다.
또한, 영상 통화 화면(111)은 도 1에 도시된 레이아웃 이외에도 다양한 레이아웃을 가질 수 있다.
개시된 실시예에서는, 모바일 기기(110)와 상대방 기기(미도시)가 영상 통화를 수행하는 경우에, 모바일 기기(110)와 유무선의 통신 네트워크를 통하여 연결 가능한 디스플레이 기기(120)를 통하여 모바일 기기(110)에서 출력되거나 출력될 예정인 영상 통화 화면을 디스플레이 할 수 있다. 그리고, 영상 통화 동작을 제어하기 위한 제어는 모바일 기기(110)를 통하여 수행할 수 있다.
도 1을 참조하면, 모바일 기기(110)가 영상 통화를 개시하면, 디스플레이 기기(120)의 화면(121)은 모바일 기기(110)를 통하여 출력되거나 출력될 예정인 영상 통화 화면(111)에 대응되는 영상 통화 화면(140)을 디스플레이 할 수 있다.
구체적으로, 디스플레이 기기(120)에서 디스플레이 되는 영상 통화 화면(140)은 사용자에 대한 적어도 하나의 이미지인 제2 이미지(143) 및 상대방에 대한 적어도 하나의 이미지인 제1 이미지(142)를 포함할 수 있다. 예를 들어, 제1 이미지(142) 및 제2 이미지(143)는 각각 제1 이미지(112) 및 제2 이미지(104)에 동일 대응될 수 있다. 도 1에서는, 영상 통화 화면(140)의 주 화면 및 부화면 각각으로 제1 이미지(142) 및 제2 이미지(143)가 출력되는 경우를 예로 들어 도시하였으나, 영상 통화 화면(140)의 주 화면 및 부화면 각각으로 제2 이미지(143) 및 제1 이미지(142)가 출력될 수도 있다.
그리고, 영상 통화가 수행되는 동안에 모바일 기기(110)는 영상 통화 동작의 제어를 위한 사용자 인터페이스 화면(미도시)을 출력할 수 있다. 이하에서는, 설명의 편의 상 영상 통화 동작의 제어를 위한 사용자 인터페이스 화면을 '제어 UI 화면'이라 칭하도록 한다.
여기서, 제어 UI 화면은 도 1에 도시된 영상 통화의 동작을 제어하기 위한 적어도 하나의 메뉴들(예를 들어, 113)을 포함할 수 있다. 여기서, 적어도 하나의 메뉴들(113)은 영상 통화 화면의 출력을 모바일 기기(110)와 디스플레이 기기(120) 간에서 상호 변경하기 위한 메뉴(114), 사용자를 촬영하는 카메라를 전면 카메라와 후면 카메라 사이에서 변경하기 위한 메뉴(115), 영상 통화를 종료하기 위한 메뉴(116), 영상 통화 시 사용자의 음성을 음소거 처리하기 위한 메뉴(117), 영상 통화 시 사용자의 음성을 스피커 및/또는 이어폰 출력으로 변경하기 위한 메뉴(118) 등을 포함할 수 있다.
또한, 영상 통화의 제어를 위한 적어도 하나의 메뉴는 문자, 아이콘, 그림, 및 기호 중 적어도 하나를 이용하여 제어 UI 화면 상에 표시될 수 있다. 도 1에서는 영상 통화의 제어를 위한 메뉴가 아이콘의 형태로 제어 UI 화면 상에 표시되는 경우를 예로 들어 설명한다.
디스플레이 기기(120)에서 출력되는 화면(121)은 모바일 기기(110)에서 출력되는 화면(111)에 비하여 큰 크기를 가진다. 또한, 일반적으로, 디스플레이 기기(120)는 모바일 기기(110)에 비하여 고화질 성능을 가진다. 따라서, 모바일 기기(110)에 비하여 큰 화면 및 고화질 성능을 갖는 디스플레이 기기(120)의 장점을 이용하여, 사용자가 모바일 기기(110)에서 출력 중이거나 출력될 예정인 영상 통화 화면을 디스플레이 기기(120)를 통하여 출력하면, 사용자는 자신이 시청하기를 원하는 영상 통화 화면을 고화질의 큰 화면으로 편리하게 시청할 수 있다.
그리고, 원격 제어 기기(remote controller) 등을 통하여 사용자 입력을 수신하는 디스플레이 기기(120)에 비하여 터치 스크린을 통하여 사용자 입력을 수신하는 모바일 기기(110)가 사용자의 조작이 더 쉽고 편리하다. 따라서, 개시된 실시예에 따르면 영상 통화 동작의 제어는 모바일 기기(110)에서 수신되는 사용자 입력에 근거하여 수행함으로써, 영상 통화를 수행하는 동안에 사용자의 조작 편리성을 높일 수 있다.
이하에서는, 도 2 내지 도 28을 참조하여, 개시된 실시예에 따른 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 더욱 상세하게 설명하도록 한다.
도 2는 개시된 실시예에 따른 영상 통화 방법을 개략적으로 설명하기 위한 도면이다. 또한, 도 2는 개시된 실시예에 따른 모바일 기기 또는 디스플레이 기기에서 수행되는 동작들을 설명하기 위한 도면이다. 도 2에 있어서, 도 1에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 따라서, 도 2에 도시된 영상 통화 방법을 설명하는데 있어서, 도 1에서와 중복되는 설명은 생략한다.
도 2를 참조하면, 모바일 기기(110)와 디스플레이 기기(120)는 유무선의 통신 네트워크(예를 들어, 도 1의 103)를 통하여 연결될 수 있다. 구체적으로, 모바일 기기(110)와 디스플레이 기기(120)는, 유무선의 통신 네트워크(예를 들어, 도 1의 103)를 통하여 신호 및/ 또는 데이터를 송수신할 수 있다.
모바일 기기(110)와 디스플레이 기기(120) 간의 통신 연결은 영상 통화가 수행되기 이전에 또는 영상 통화의 수행 요청과 함께 수행될 수 있다.
즉, 개시된 실시예에 따른 영상 통화 동작을 수행하기 위해서는 모바일 기기(110)와 디스플레이 기기(120)가 유무선의 통신 네트워크로 연결되어 있어야 한다. 케이블 등을 이용하여 모바일 기기(110)와 디스플레이 기기(120) 간의 유선 통신 연결이 되어 있는 경우, 모바일 기기(110)와 디스플레이 기기(120)는 별도의 페어링 동작(예를 들어, S210 동작) 없이 영상 통화 서비스가 시작될 수 있다.
모바일 기기(110)와 디스플레이 기기(120)가 무선 통신 네트워크로 연결되는 경우, 모바일 기기(110)와 디스플레이 기기(120)는 무선 통신 네트워크를 형성하기 위한 위한 페어링(pairing)을 수행할 수 있다. 구체적으로, 개시된 실시예에 따른 영상 통화 동작이 시작되면, 모바일 기기(110)와 디스플레이 기기(120)는 페어링(pairing)을 수행할 수 있다.
여기서, 페어링(pairing)은 모바일 기기(110)를 통하여 개시된 영상 통화에 대응되는 영상 통화 화면이 디스플레이 기기(120)를 통하여 출력되도록 하기 위해서, 모바일 기기(110)와 디스플레이 기기(120) 간의 무선 통신 연결에 필요한 데이터들을 송수신하면서 무선 통신 네트워크를 형성하는 동작을 의미할 수 있다. 페어링이 완료되면, 모바일 기기(110)와 디스플레이 기기(120)는 영상 통화 수행을 위해서 필요한 데이터들을 송수신할 수 있다.
도 2에서는, 모바일 기기(110)와 디스플레이 기기(120)가 페어링 동작을 통한 무선 통신 네트워크를 통하여 연결되는 경우를 예로 들어 도시하였으며, 페어링 동작(S210)은 영상 통화가 시작되기 이전에 수행되는 경우를 예로 들어 도시하였다.
또한, 모바일 기기(110)와 디스플레이 기기(120) 간의 무선 통신 네트워크가 이미 형성되어 있는 경우, 전술한 페어링 동작을 생략될 수 있다.
또한, 모바일 기기(110)와 디스플레이 기기(120)가 이전 시점에서 미러링 서비스를 실행한 적이 있었던 경우, 모바일 기기(110)와 디스플레이 기기(120) 간의 페어링은 전술한 이전 시점에서 수행된다. 그리고, 후속 시점에서, 영상 통화가 요청되면, 이전에 수행되었던 페어링에서 획득되었던 무선 통신 연결에 필요한 데이터들을 이용하여, 모바일 기기(110)와 디스플레이 기기(120)간의 통신 연결을 형성할 수 있다.
개시된 실시예에서, 모바일 기기(110)는 디스플레이 기기(120)를 통하여 영상 통화 화면이 출력되도록 요청하는 사용자 입력을 수신한다(S220).
구체적으로, 모바일 기기(110)는 영상 통화 화면이 디스플레이 기기(120)를 통하여 출력되도록 요청하는 메뉴를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다. 그러면, 사용자는 디스플레이된 메뉴를 터치 등의 방법을 통하여 선택할 수 있으며, 모바일 기기(110)는 사용자의 입력을 인식하여, 영상 통화 화면이 디스플레이 기기(120)를 통하여 출력되도록 요청하는 사용자 입력을 인식할 수 있다.
구체적으로, S220 동작은 이하에서 도 7 및 도 8을 참조하여 상세히 설명한다.
그리고, 개시된 실시예에서, 모바일 기기(110)는 S220 동작에서 수신된 사용자 입력에 근거하여, 영상 통화 요청을 디스플레이 기기(120)로 전송한다(S230). 구체적으로, 모바일 기기(110)는 S220 동작에서 수신되는 사용자 입력에 대응하여, 영상 통화 요청을 디스플레이 기기(120)로 전송할 수 있다. 그에 따라서, 디스플레이 기기(120)는 영상 통화 요청을 수신할 수 있다.
여기서, 영상 통화 요청은 모바일 기기(110)의 사용자가 디스플레이 기기(120)의 화면을 보면서 상대방과의 영상 통화를 할 수 있도록 하는 요청이 될 수 있다. 구체적으로, 영상 통화 요청은, 모바일 기기(110)를 통하여 개시된 영상 통화를 디스플레이 기기(120)가 이어 받아 대신 실행해 주도록 하는 요청이 될 수 있다. 즉, 영상 통화 요청은 모바일 기기(110)를 통하여 개시된 영상 통화에 대응되는 영상 통화 화면이 디스플레이 기기(120)의 디스플레이(미도시)를 통하여 출력되도록 하는 요청이 될 수 있다. 그에 따라서,영상 통화의 실행 주체가 모바일 기기(110)에서 디스플레이 기기(120)로 변경될 때, 영상 통화 화면이 모바일 기기(110)로부터 디스플레이 기기(120)로 끊김 없이 연속적으로 출력될 수 있다.
구체적으로, 영상 통화 요청은, 디스플레이 기기(120)가 사용자에 대한 이미지를 촬영하고, 촬영된 이미지 및 상대방에 대한 이미지를 포함하는 영상 통화 화면이 디스플레이 기기(120)를 통하여 출력되도록 하는 요청이 될 수 있다. 구체적으로, 영상 통화가 수행되면, 사용자에 대한 이미지 및 상대방에 대한 이미지는 영상 통화가 이뤄지는 기간 동안에 실시간으로 촬영되는 영상이 될 수 있다.
또는, 영상 통화 요청은, 모바일 기기(110)를 통하여 개시된 영상 통화가 디스플레이 기기(120)를 통하여 대신 수행되도록 하는 요청이 될 수 있다. 여기서, 디스플레이 기기(120)가 영상 통화를 대신 수행하는 경우, 디스플레이 기기(120)는 영상 통화를 수행함에 따라서 영상 통화 화면의 디스플레이를 생성 및 출력하는 동작을 수반할 수 있다.
그리고, 모바일 기기(110)는 영상 통화의 수행을 제어하기 위한 사용자 인터페이스 화면인 제어 UI 화면이 디스플레이(미도시)를 통하여 출력할 수 있다(S250). 제어 UI 화면은 이하에서 도 9를 참조하여 상세히 설명한다.
디스플레이 기기(120)는 모바일 기기(110)로부터 수신되는 영상 통화 요청에 근거하여 디스플레이 기기(120) 내에 포함되는 카메라를 활성화시킨다(S240). 이때 디스플레이 기기(120)는 디스플레이 기기에 포함되거나, 유선 연결되거나, 무선 연결된 카메라 중 디스플레이 기기(120)가 영상 통화에 활용할 수 있는 카메라를 선택할 수 있다. 디스플레이 기기(120)는 영상 통화에 활용할 수 있는 카메라 리스트를 표시하고, 사용자의 선택에 따라 하나의 카메라를 선택할 수 있다.
여기서, 디스플레이 기기(120) 내에 포함되는 카메라는 디스플레이 기기(120)의 화면의 전방을 촬영하도록, 디스플레이 기기(120)의 전면 상의 일 위치에 배치될 수 있다. 도 1을 참조하면, 디스플레이 기기(120)의 카메라(130)는 도 1에 도시된 바와 같이 디스플레이 기기(120)의 전면에 있어서 상부 중앙에 배치될 수 있다. 구체적으로, 디스플레이 기기(120)의 카메라(130)는 디스플레이 기기(120)의 전면에서 디스플레이 기기(120)가 출력하는 화면을 시청하는 사용자에 대한 이미지를 획득할 수 있도록 디스플레이 기기(120)의 전면 상의 일 위치에 배치될 수 있다. 또한, 도 1에서는 디스플레이 기기(120) 내에 하나의 카메라가 포함되는 경우를 예로 들어 도시하였다. 그러나, 디스플레이 기기(120)는 서로 다른 위치에 배치되는 복수개의 카메라를 포함할 수 있을 것이다. 디스플레이 기기(120)가 복수개의 카메라를 포함하는 경우, 디스플레이 기기(120)는 자체 설정 또는 사용자 입력에 근거하여, 영상 통화를 위하여 사용자는 복수개의 카메라들 중 어느 하나를 선택할 수 있을 것이다.
또한, 사용자에 대한 이미지를 획득하기 위한 카메라는 디스플레이 기기(120) 내에 포함되는 형태가 아닌, 디스플레이 기기(120)와 별도로 구비될 수 있다. 예를 들어, 디스플레이 기기(120)의 전면을 촬영할 수 있도록, 디스플레이 기기(120)의 일 측면에 배치되는 외장 카메라(미도시)가 될 수 있다. 이 경우, 외장 카메라(미도시)와 디스플레이 기기(120)는 유무선의 신호 선을 통하여 연결될 수 있으며, 외장 카메라(미도시)는 디스플레이 기기(120)의 제어에 따라서 영상 통화의 사용자에 대한 이미지를 획득할 수 있다.
또한, 카메라를 활성화 시키는 것은, 카메라를 통한 이미지 획득 동작이 수행되는 상태로 카메라의 동작 상태를 변경하는 것을 의미할 수 있다. 그에 따라서, 카메라가 활성화되면, 활성화된 카메라를 통한 이미지 획득 동작이 수행될 수 있고, 카메라를 통해 획득된 이미지에 대한 신호를 활성화된 카메라로부터 수신할 수 있다.
구체적으로, 디스플레이 기기(120)의 동작 모드가 영상 통화 모드 또는 촬영 모드에 있는 경우, 카메라는 이미지를 획득할 수 있도록 활성화되어, 이미지 획득 동작을 수행할 수 있다.
개시된 실시예에서, 디스플레이 기기(120)는 영상 통화 요청(S230)에 근거하여, 카메라(예를 들어, 도 1의 카메라(130))를 활성화시켜서, 카메라를 통하여 사용자에 대한 이미지를 획득할 수 있다.
후속하여, 디스플레이 기기(120)는 영상 통화의 상대방에 대한 이미지 데이터를 획득할 수 있다(S260). 구체적으로, 디스플레이 기기(120)는 영상 통화의 상대방에 대한 이미지 데이터를 디스플레이 기기(120)의 통신부(미도시)를 통해 수신할 수 있다. 상대방에 대한 이미지 데이터는 영상 통화 화면(예를 들어, 도 1의 140)에 포함되는 상대방에 대한 이미지(예를 들어, 도 1의 142)를 생성하기 위한 데이터가 될 수 있다. S260 동작은 도 12 내지 도 16을 참조하여, 상세히 설명하도록 한다.
디스플레이 기기(120)는 S260 동작을 통하여 획득된 이미지 데이터에 근거하여 생성되는 상대방에 대한 제1 이미지 및 디스플레이 기기(120)의 카메라에서 획득된 사용자에 대한 제2 이미지를 포함하는 영상 통화 화면(예를 들어, 도 1의 140)이 디스플레이(예를 들어, 도 1의 121)를 통하여 디스플레이 할 수 있다(S270).
도 1 및 도 2에서는, 개시된 실시예를 간략히 설명하였다.
개시된 실시예에 따른 모바일 기기(110), 디스플레이 기기(120), 모바일 기기(110)를 통하여 수행되는 영상 통화 방법 및 디스플레이 기기(120)를 통하여 수행되는 영상 통화 방법은 이하에서 도 3 내지 도 28을 참조하여, 상세하게 설명하도록 한다.
도 3은 개시된 실시예에 따른 디스플레이 기기를 나타내는 일 블록도이다.
첨부된 도면들에 있어서, 동일한 도면 기호는 동일한 구성을 지칭한다. 따라서, 도 3에 도시된 모바일 기기(110)는 도 1에서 설명한 모바일 기기(110)를 나타낸다. 그리고, 도 3에 도시된 디스플레이 기기(300)는 도 1 내지 도 2를 참조하여 설명한 디스플레이 기기(120)에 동일 대응된다. 그러므로, 디스플레이 기기(300)를 설명하는데 있어서, 도 1 내지 도 2에 대한 설명과 중복되는 설명은 생략한다.
도 3을 참조하면, 디스플레이 기기(300)는 프로세서(310), 디스플레이(320), 통신부(330) 및 카메라(340)를 포함한다.
프로세서(310)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 제어한다. 여기서, 적어도 하나의 인스트럭션은 프로세서(310) 내에 포함되는 내부 메모리(미도시) 또는 프로세서(310)와 별도로 디스플레이 기기(300) 내에 포함되는 메모리(미도시)에 저장되어 있을 수 있다.
구체적으로, 프로세서(310)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 디스플레이 기기(300) 내부에 포함하는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서(310)가 소정 동작들을 수행하는 경우를 예로 들어 설명하더라도, 프로세서(310)가 소정 동작들이 수행되도록 디스플레이 기기(300) 내부에 포함하는 적어도 하나의 구성들을 제어하는 것을 의미할 수 있을 것이다.
또한, 프로세서(310)는 하나의 프로세서로 형성되는 경우를 예로 들어 설명 및 도시하였으나, 복수개의 프로세서들이 포함되는 형태로 형성될 수도 있다.
구체적으로, 프로세서(310)는 디스플레이 기기(300)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 디스플레이 기기(300)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 RAM(미도시), 디스플레이 기기(300)의 제어를 위한 제어 프로그램 및/또는 복수개의 인스트럭션이 저장된 ROM(미도시) 및 적어도 하나의 프로세서 (Processor)(미도시)를 포함할 수 있다. 프로세서(미도시)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 미도시)를 포함할 수 있다. 프로세서(미도시)는 코어(core, 미도시)와 GPU(미도시)를 통합한 SoC(System On Chip)로 구현될 수 있다. 또한, 프로세서(310)는 싱글 코어 이상의 멀티 코어를 포함할 수 있다. 예를 들어, 프로세서(310)는 듀얼 코어, 트리플 코어, 쿼드 코어, 헥사 코어, 옥타 코어, 데카 코어, 도데카 코어, 헥사 다시 벌 코어 등을 포함할 수 있다.
디스플레이(320)는 이미지를 화면 상으로 출력한다. 구체적으로, 디스플레이(320)는 비디오 데이터를 사용자가 시각적으로 인식할 수 있도록, 내부적으로 포함되는 디스플레이 패널(미도시)을 통하여, 비디오 데이터에 대응되는 이미지를 출력할 수 있다.
개시된 실시예에서, 영상 통화가 수행되는 동안에, 디스플레이(320)는 영상 통화를 위하여 출력되는 영상 통화 화면을 출력할 수 있다.
통신부(330)는 적어도 하나의 유선 또는 무선 통신 네트워크를 통해서 다른 전자 기기(미도시)와 통신을 수행한다. 개시된 실시예에서, 통신부(330)는 모바일 기기(110)와 통신한다.
통신부(330)는 유무선의 통신 네트워크를 통하여 모바일 기기(110)와 통신할 수 있다. 구체적으로, 통신부(330)는 적어도 하나의 통신 모듈, 통신 회로 등을 포함하는 형태로 형성될 수 있으며, 통신 모듈 및/또는 통신 회로를 통하여 외부의 전자기기(미도시) 또는 서버(미도시)와 데이터를 송수신할 수 있다.
구체적으로, 통신부(330)는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈(미도시)를 포함할 수 있다. 여기서, 근거리 통신 모듈(미도시)은 '근거리 통신부(미도시)'로 호칭될 수도 있다.
또한, 통신부(330)는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버(미도시)와 통신을 수행하는 원거리 통신 모듈(미도시)를 더 포함할 수 있다. 구체적으로, 통신부(330)는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈(미도시)를 포함할 수 있다. 또한, 통신부(330)는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 포함할 수 있다. 또한, 원거리 통신 모듈(미도시)는 '원거리 통신부(미도시)'로 호칭될 수도 있다.
또한, 통신부(330)는 모바일 기기(110)와 유선으로 통신하기 위해서, 모바일 기기(110)와 유선 케이블로 연결되기 위한 적어도 하나의 포트(미도시)를 포함할 수 있다. 예를 들어, 통신부(330)는 HDMI 포트(미도시) 등과 같이 케이블 연결 포트를 포함할 수 있다.
카메라(340)는 도 1에 도시된 카메라(130)에 동일 대응될 수 있다. 카메라(340)는 이미지 센서(미도시)를 포함하여, 영상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 영상 프레임을 얻을 수 있다.
또한, 도 3에서는 디스플레이 기기(300) 내에 하나의 카메라가 포함되는 경우를 예로 들어 도시하였다. 그러나, 디스플레이 기기(300)는 서로 다른 위치에 배치되는 복수개의 카메라를 포함할 수 있을 것이다. 디스플레이 기기(300)가 복수개의 카메라를 포함하는 경우, 디스플레이 기기(300)는 자체 설정 또는 사용자 입력에 근거하여, 영상 통화를 위하여 사용자는 복수개의 카메라들 중 어느 하나를 선택할 수 있다.
또한, 사용자에 대한 이미지를 획득하기 위한 카메라는 디스플레이 기기(300) 내에 포함되는 형태가 아닌, 디스플레이 기기(300)와 별도로 구비될 수 있다. 예를 들어, 디스플레이 기기(120)의 전면을 촬영할 수 있도록, 디스플레이 기기(120)의 일 측면 또는 인접하여 배치되는 외장 카메라(미도시)가 될 수 있다. 이 경우, 외장 카메라(미도시)와 디스플레이 기기(300)는 유무선의 신호 선을 통하여 연결될 수 있으며, 외장 카메라(미도시)는 디스플레이 기기(300)의 제어에 따라서 영상 통화의 사용자에 대한 이미지를 획득할 수 있다.
이하에서는 설명의 편의 상, 영상 통화를 위하여 사용자에 대한 영상을 획득하기 위한 카메라가 디스플레이 기기(300) 내에 포함되는 형태로 구비되는 경우를 예로 들어 도시 및 설명하도록 한다.
개시된 실시예에 있어서, 프로세서(310)는 모바일 기기(110)로부터 수신되는 영상 통화 요청에 근거하여 카메라(340)를 활성화시킨다. 그리고, 활성화된 카메라(340)를 통하여 영상 통화의 상대방에 대한 이미지 데이터를 획득한다. 계속하여, 상대방에 대한 이미지 데이터에 근거하여 생성되는 상대방에 대한 제1 이미지 및 카메라(340)에서 획득된 제2 이미지를 포함하는 영상 통화 화면이 디스플레이(320)를 통하여 출력되도록 제어한다.
이하에서는, 도 12를 참조하여, 디스플레이 기기(1100)의 구성을 좀 더 상세히 설명한다.
도 4은 개시된 실시예에 따른 디스플레이 기기를 나타내는 다른 블록도이다.
도 4에 도시된 디스플레이 기기(400)는 도 1 내지 도 3에 도시된 디스플레이 기기(120, 300)에 동일 대응될 수 있다. 도 4를 참조하면, 디스플레이 기기(400)는 디스플레이 기기(400)에 비하여, 메모리(470), 사용자 인터페이스(450), 및 오디오 입출력부(465) 중 적어도 하나를 더 포함할 수 있다.
메모리(470)는 적어도 하나의 인스트럭션을 저장할 수 있다. 또한, 메모리(470)는 프로세서(310)가 실행하는 적어도 하나의 인스트럭션을 저장하고 있을 수 있다. 또한, 메모리(470)는 프로세서(310)가 실행하는 적어도 하나의 프로그램을 저장하고 있을 수 있다.
구체적으로, 메모리(470)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
사용자 인터페이스(450)는 디스플레이 기기(400)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(450)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자의 회전 조작을 수신하는 휠, 키보드(key board), 및 돔 스위치 (dome switch) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
또한, 사용자 인터페이스(450)는 음성 인식을 위한 음성 인식 장치(미도시)를 포함할 수 있다. 예를 들어, 음성 인식 장치(미도시)는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서(310)는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다.
또한, 사용자 인터페이스(450)는 모션 감지 센서(미도시)를 포함할 수도 있다. 예를 들어, 모션 감지 센서(미도시)는 디스플레이 기기(3100)의 움직임을 감지하고, 감지된 움직임을 사용자 입력으로 수신할 수 있다. 또한, 전술한 음성 인식 장치(미도시) 및 모션 감지 센서(미도시)는 사용자 인터페이스(450) 내에 포함되는 형태가 아니라, 사용자 인터페이스(450)와는 독립적인 모듈로 디스플레이 기기(400) 내에 포함될 수 있을 것이다.
오디오 입출력부(465)는 사용자가 청각적으로 인식할 수 있는 오디오를 출력하거나, 오디오를 감지 및/또는 수신할 수 있다. 구체적으로, 오디오 입출력부(465)는 오디오 출력부(460) 및 오디오 입력부(465)를 포함할 수 있다.
오디오 출력부(460)는 프로세서(310)의 제어에 따라서 오디오를 출력한다.
구체적으로, 오디오 출력부(460)는 통신부(330)를 통해 입력되는 오디오(예를 들어, 음성, 사운드)를 출력할 수 있다.
개시된 실시예에서, 프로세서(310)는 영상 통화 모드 동안에 영상 통화의 상대방 기기(미도시)로부터 수신되는 오디오가 오디오 출력부(460)를 통하여 출력되도록 제어할 수 있다.
또한, 오디오 출력부(460)는 프로세서(310)의 제어에 의해 메모리(470)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(460)는 스피커(미도시), 헤드폰 출력 단자(미도시) 또는 S/PDIF(Sony/Philips Digital Interface) 출력 단자(미도시) 중 적어도 하나를 포함할 수 있다. 오디오 출력부(460)는 스피커(미도시), 헤드폰 출력 단자(미도시) 및 S/PDIF(Sony/Philips Digital Interface) 출력 단자(미도시)의 조합을 포함할 수 있다.
오디오 입력부(467)은 오디오를 수신한다. 구체적으로, 오디오 입력부(467)는 외부의 음향 신호인 오디오를 입력 받아 전기적인 음성 데이터로 처리하는 마이크(구체적으로, 마이크로폰)(미도시)를 포함할 수 있다. 예를 들어, 오디오 입력부(467)에 포함되는 마이크(미도시)는 외부기기 또는 화자, 예를 들어, 영상 통화 중인 사용자로부터 음향 신호를 수신할 수 있다. 또한, 오디오 입력부(467)에 포함되는 마이크(미도시)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
개시된 실시예에서, 프로세서(310)의 제어에 따라서 오디오 입력부(467)은 영상 통화 모드 동안에, 사용자의 음성을 포함하는 음향 신호를 수신하고, 수신된 음향 신호에서 잡음을 제거하여 사용자의 음성이 인식되도록 처리할 수 있다.
도 5는 개시된 실시예에 따른 모바일 기기를 나타내는 일 블록도이다.
도 5를 참조하면, 도 5에 도시된 모바일 기기(500)는 도 1 내지 도 4을 참조하여 설명한 모바일 기기(110)에 동일 대응된다. 따라서, 모바일 기기(500)를 설명하는데 있어서, 도 1 내지 도 4을 참조하여 설명한 모바일 기기(110)의 동작들과 동일한 설명은 생략한다.
도 5를 참조하면, 모바일 기기(500)는 프로세서(505), 사용자 인터페이스(510), 디스플레이(520), 통신부(530) 및 카메라(540)를 포함한다.
프로세서(505)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 제어한다. 여기서, 적어도 하나의 인스트럭션은 프로세서(505) 내에 포함되는 내부 메모리(미도시) 또는 프로세서(505)와 별도로 디스플레이 기기(1100) 내에 포함되는 메모리(미도시)에 저장되어 있을 수 있다.
구체적으로, 프로세서(505)는 적어도 하나의 인스트럭션을 수행하여, 의도하는 동작이 수행되도록 모바일 기기(500) 내부에 포함하는 적어도 하나의 구성들을 제어할 수 있다. 따라서, 프로세서(505)가 소정 동작들을 수행하는 경우를 예로 들어 설명하더라도, 프로세서(505)가 소정 동작들이 수행되도록 모바일 기기(500) 내부에 포함하는 적어도 하나의 구성들을 제어하는 것을 의미할 수 있을 것이다.
디스플레이(520)는 이미지를 화면 상으로 출력한다. 구체적으로, 디스플레이(520)는 비디오 데이터를 사용자가 시각적으로 인식할 수 있도록, 내부적으로 포함되는 디스플레이 패널(미도시)을 통하여, 비디오 데이터에 대응되는 이미지를 출력할 수 있다.
또한, 디스플레이(520)는 디스플레이 패널(display panel)(미도시)과 결합되는 터치 패드(touch pad)(미도시)를 더 포함할 수 있다. 디스플레이(520)가 터치 패드와 결합되는 디스플레이 패널로 형성되는 경우, 디스플레이(520)는 터치 입력을 수신하기 위한 사용자 인터페이스 화면을 출력할 수 있다. 그리고, 사용자 인터페이스 화면을 통하여 소정 명령에 대응되는 사용자의 조작(예를 들어, 터치)이 감지되면, 디스플레이(520)는 감지된 터치 입력을 프로세서(505)로 전송할 수 있다. 그러면, 프로세서(505)는 감지된 터치 입력을 해석하여 사용자가 입력한 소정 명령을 인식 및 실행할 수 있다.
이하에서는, 디스플레이(520)가 디스플레이 패널(미도시)과 터치 패널(미도시)이 결합되는 형태로 형성되는 경우를 예로 들어 설명하도록 한다. 개시된 실시예에서, 디스플레이(520)는 모바일 기기(500)와 유무선의 통신 네트워크를 통하여 연결되는 디스플레이 기기(예를 들어, 300)를 통하여 영상 통화 화면이 출력되는 동안에, 프로세서(505)의 제어에 따라서 영상 통화 동작의 제어를 위한 사용자 인터페이스 화면인 제어 UI 화면을 출력할 수 있다.
통신부(530)는 적어도 하나의 유선 또는 무선 통신 네트워크를 통해서 다른 전자 기기(미도시) 또는 서버(미도시)와 통신을 수행한다.
개시된 실시예에서, 프로세서(505)는 영상 통화 모드에서 모바일 기기(500)와 상대방 기기(미도시) 간의 영상 통화가 이뤄질 수 있도록, 통신부(530)가 영상 통화를 지원하기 위한 서버(미도시)에 접속하도록 제어할 수 있다. 그에 따라서, 통신부(530)는 영상 통화를 수행하는데 필요하 데이터를 송수신할 수 있다.
또한, 개시된 실시예에서, 통신부(530)는 유무선의 통신 연결을 통하여 디스플레이 기기(예를 들어, 120, 300, 또는 400)와 통신한다. 구체적으로, 프로세서(505)는 영상 통화 화면이 디스플레이 기기(예를 들어, 120, 300, 또는 400)를 통하여 출력되도록, 통신부(530)를 통하여 디스플레이 기기(예를 들어, 120, 300, 또는 400)와 유무선의 통신 네트워크를 통하여 연결될 수 있다.
구체적으로, 통신부(530)는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈(미도시)를 포함할 수 있다.
또한, 통신부(530)는 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버(미도시)와 통신을 수행하는 원거리 통신 모듈(미도시)를 더 포함할 수 있다. 구체적으로, 통신부(530)는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행하는 원거리 통신 모듈(미도시)를 포함할 수 있다. 또한, 통신부(530)는 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 포함할 수 있다. 또한, 원거리 통신 모듈(미도시)는 이동 통신 모듈로 호칭될 수 있다.
예를 들어, 통신부(530)는 5G 통신 규격에 따르는 통신 네트워크를 통하여 영상 통화를 지원하기 위한 서버(미도시)에 접속될 수 있다. 그에 따라서, 모바일 기기(500)는 상대방 기기(미도시)와의 영상 통화 서비스를 제공할 수 있다.
또한, 통신부(530)는 디스플레이 기기(예를 들어, 120, 300, 또는 400)와 유선으로 통신하기 위해서, 디스플레이 기기(예를 들어, 120, 300, 또는 400)와 유선 케이블로 연결되기 위한 적어도 하나의 포트(미도시)를 포함할 수 있다. 예를 들어, 통신부(1130)는 HDMI 포트(미도시), USB 연결 포트(미도시) 등과 같이 케이블 연결 포트를 포함할 수 있다.
사용자 인터페이스(510)는 모바일 기기(500)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(510)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자의 회전 조작을 수신하는 휠, 키보드(key board), 및 돔 스위치 (dome switch) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다. 또한, 버튼, 휠, 돔 스위치 각각은 서로 다른 기능들 각각에 대응되는 키로 형성될 수 있다.
또한, 사용자 인터페이스(510)는 음성 인식을 위한 음성 인식 장치(미도시)를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 그에 따라서, 프로세서(505)는 음성 명령 또는 음성 요청에 대응되는 동작이 수행되도록 제어할 수 있다.
또한, 사용자 인터페이스(510)는 모션 감지 센서(미도시)를 포함할 수도 있다. 예를 들어, 모션 감지 센서(미도시)는 차량 내에서의 사용자의 움직임을 감지하고, 감지된 움직임을 사용자 입력으로 수신할 수 있다. 또한, 전술한 음성 인식 장치(미도시) 및 모션 감지 센서(미도시)는 사용자 인터페이스(510) 내에 포함되는 형태가 아니라, 사용자 인터페이스(510)와는 독립적인 구성 또는 모듈로 모바일 기기(500) 내에 포함될 수 있을 것이다.
카메라(540)는 이미지 센서(미도시)를 포함하여, 영상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 영상 프레임을 얻을 수 있다.
또한, 카메라(540)는 서로 다른 위치에 형성되는 적어도 하나의 카메라들을 포함할 수 있다. 예를 들어, 카메라(540)는 전면 카메라(미도시) 및 후면 카메라(미도시)를 포함할 수 있다. 전면 카메라(미도시)는 도 1에 도시된 전면 카메라(106)에 동일 대응되므로, 상세 설명은 생략한다. 후면 카메라(미도시)는 전면 카메라(106)가 촬영하는 시야각과 180도 차이는 방향의 시야각을 가지며, 모바일 기기(500)의 후면을 촬영할 수 있다.
예를 들어, 프로세서(505)는 영상 통화가 요청되면 카메라(540), 구체적으로, 전면 카메라(미도시)를 활성화시킨다. 그리고, 활성화된 전면 카메라(미도시)를 통하여 사용자에 대한 이미지 데이터를 획득할 수 있다.
개시된 실시예에서, 프로세서(505)는 영상 통화 화면에 대한 출력이 디스플레이 기기(예를 들어, 120, 300, 또는 400)가 아닌 모바일 기기(500)에서 출력되도록 제어하는 경우, 카메라(540)를 활성화시켜서 카메라(540)가 영상 촬영을 수행하도록 제어할 수 있다.
이하에서는, 도 6 내지 도 26을 참조하여, 개시된 실시예에서 따라서 모바일 기기(예를 들어, 110 또는 500) 및 디스플레이 기기(예를 들어, 120, 300, 또는 400)를 통하여 수행되는 영상 통화 동작 및 영상 통화의 제어 동작을 상세히 설명한다.
도 6은 개시된 실시예에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 나타내는 일 흐름도이다.
도 6 내지 도 26에 있어서, 도 2에 도시된 영상 통화 방법에 포함되는 동작 또는 단계들과 동일 대응되는 동작 또는 단계들은, 도 2에서와 동일한 도면 기호로 도시하였다. 예를 들어, 도 6에 도시된 S230 단계는 도 2의 S230 동작에 동일대응 된다. 따라서, 도 6 내지 도 26을 참조하여 개시된 실시예에서 수행되는 동작 또는 단계를 설명하는데 있어서, 도 2에서와 중복되는 설명은 생략한다.
그리고, 이하에서 도 6 내지 도 26을 개시된 실시예를 설명하는데 있어서, 도 5에 도시된 모바일 기기(500) 및 도 4에 도시된 디스플레이 기기(400)를 참조하도록 하겠다.
도 6을 참조하면, 영상 통화 방법(600)은 개시된 실시예에 따른 모바일 기기, 예를 들어, 모바일 기기(500)를 통하여 수행되는 영상 통화 방법을 도시한다. 또한, 도 6은 개시된 실시예에 따른 모바일 기기, 예를 들어, 모바일 기기(500)에서 수행되는 동작들의 흐름을 나타내는 흐름도가 될 수 있다.
도 6을 참조하면, 모바일 기기(500)는 디스플레이 기기(400)를 통하여 영상 통화 화면이 출력되도록 요청하는 사용자 입력을 수신한다(S220). 구체적으로, 모바일 기기(500)의 프로세서(505)는 사용자 인터페이스(510)를 통하여 사용자 입력을 수신할 수 있다. 구체적으로, 사용자 인터페이스(510)를 통하여 감지되는 사용자의 조작(예를 들어, 소정 메뉴를 선택하기 위한 사용자의 터치 등)에 근거하여, 프로세서(505)는 사용자 인터페이스(510)에서 감지된 내용이 어떠한 요청에 대응되는 것이지 식별할 수 있다. S220 단계의 동작은 이하에서 도 7 내지 도 8을 참조하여 상세히 설명하도록 한다.
도 7은 개시된 실시예에 따른 모바일 기기에서 출력하는 사용자 인터페이스 화면들을 나타내는 일 도면이다.
도 7을 참조하면, 모바일 기기(500)는 사용자 인터페이스 화면(710)를 디스플레이할 수 있다. 구체적으로, 모바일 기기(500)의 프로세서(505)는 영상 통화를 요청하는 메뉴(724)를 포함하는 사용자 인터페이스 화면(710)가 디스플레이(520)에서 디스플레이 되도록 제어할 수 있다.
구체적으로, 사용자 인터페이스 화면(710)는 상대방 또는 상대방 기기(미도시)에 대한 연락처를 나타내는 화면이 될 수 있다. 사용자 인터페이스 화면(710)은 상대방의 이름(740), 상대방의 소셜 네트워크에 대한 접속 정보(730), 및 상대방의 휴대전화 번호(720) 중 적어도 하나를 포함할 수 있다. 여기서, 상대방과 통화하기 위해서 상대방 기기(미도시)와 연결되기 위한 통신 접속 정보의 예시로 휴대전화 번호(720)를 도시하였다. 휴대 전화 번호(720) 이외에도 통화 또는 영상 통화에 필요한 데이터를 송수신할 수 있도록 상대방 기기(미도시)와 연결되기 위해 이용되는 정보가 포함될 수도 있을 것이다.
도 7에 도시된 정보들 이외에도, 사용자 인터페이스 화면(710)은 상대방에 대응되는 이미지, 상대방에 대한 부가정보, 상대방과 관련된 메모 사항 등이 포함될 수 있다.
또한, 도 7을 참조하면, 사용자 인터페이스 화면(710)은 영상 통화를 요청하는 메뉴(724) 이외에, 유선 통화를 요청하는 메뉴(721), 및 문자 메시지를 송수신하기 위한 메뉴(723) 중 적어도 하나를 더 포함할 수 있다. 또한, 소정 요청에 대응되는 메뉴들(721, 723, 724)는 문자, 아이콘, 그림 및 기호 중 적어도 하나를 이용하여 표시될 수 있다. 도 7에서는 소정 요청에 대응되는 메뉴들(721, 723, 724)이 아이콘의 형태로 사용자 인터페이스 화면(710) 내에 표시되는 경우를 예로 들어 도시하였다.
사용자는 사용자 인터페이스 화면(710) 상에 표시되는 영상 통화를 요청하는 메뉴(724)를 터치할 수 있다. 그러면, 프로세서(505)는 사용자의 터치에 근거하여 사용자의 요청이 영상 통화에 대한 요청임을 식별하고, 식별된 요청에 대응되는 동작을 수행할 수 있다.
메뉴(724)에 대한 사용자 입력이 수신되면, 프로세서(505)는 영상 통화를 수행하고 영상 통화를 위한 인터페이스 화면(750)이 디스플레이 되도록 제어할 수 있다. 즉, 메뉴(724)에 대한 사용자 입력이 수신되면, 프로세서(505)는 화면(710)이 화면(750)으로 전환 출력되도록 제어할 수 있다.
예를 들어, 영상 통화를 위한 인터페이스 화면(750)은 사용자가 상대방에 대한 이미지를 보면서 통화를 수행할 수 있도록 상대방에 대한 이미지(761)를 포함할 수 있다. 또한, 인터페이스 화면(750)은 사용자에 대한 이미지(762)를 더 포함할 수 있다.
개시된 실시예에서, 인터페이스 화면(750)은 영상 통화 화면의 출력이 모바일 기기(500)와 연결되는 디스플레이 기기(400)를 통하여 출력되도록 요청하는 메뉴(771)을 더 포함할 수 있다.
이하에서는 설명의 편의 상, 영상 통화 화면의 출력이 모바일 기기(500)와 연결되는 디스플레이 기기(400)를 통하여 출력되도록 하는 요청을 'TV로 통화 요청'이라고 칭하도록 한다. 즉, 도시된 메뉴(771)는 TV로 통화 요청을 위한 메뉴를 의미한다.
TV로 통화 요청에 대응되는 사용자 입력이 수신되면(S220), 사용자가 디스플레이 기기(400), 예를 들어, TV를 보면서 상대방과 영상 통화를 할 수 있도록 영상 통화 화면의 출력이 디스플레이 기기(400)를 통하여 이뤄질 수 있다. 또한, TV로 통화 요청에 대응되는 사용자 입력이 수신되면(S220), 사용자가 디스플레이 기기(400), 예를 들어, TV를 보면서 상대방과 영상 통화를 하게 되므로, 디스플레이 기기(400)에 포함되는 카메라(340)가 활성화되어 영상 통화를 위한 촬영을 시작할 수 있다. 카메라(340)에서 획득된 이미지는 영상 통화 화면 내에서 사용자에 대한 이미지가 될 수 있다. S220 단계에서의 TV로 통화 요청에 대응되는 사용자 입력의 수신은 사용자가 메뉴(771)을 터치함으로써 이뤄질 수 있다.
구체적으로, TV로 통화 요청은, 모바일 기기(500)와 상대방 기기(미도시)가 영상 통화에 필요한 통화 데이터를 송수신하고, 모바일 기기(500)에서 출력되어야 할 영상 통화 화면이 디스플레이 기기(400)로 출력되도록 하는 요청을 의미할 수 있다. 이러한 경우에 모바일 기기(500) 및 디스플레이 기기(400) 중 적어도 하나에서 수행되는 구체적인 동작들은 이하에서 도 12 내지 도 14를 참조하여 상세히 설명한다.
또는, TV로 통화 요청은, 모바일 기기(500)와 상대방 기기(미도시)간의 영상 통화가 개시된 이후에, 영상 통화에 필요한 통화 데이터를 상대방 기기(미도시)와 디스플레이 기기(400)가 직접 송수신하면서, 영상 통화 화면이 디스플레이 기기(400)에서 디스플레이 되도록 하는 요청을 의미할 수 있다. 이러한 경우에 모바일 기기(500) 및 디스플레이 기기(400) 중 적어도 하나에서 수행되는 구체적인 동작들은 이하에서 도 15 내지 도 16을 참조하여 상세히 설명한다.
도 8은 개시된 실시예에 따른 모바일 기기에서 출력하는 사용자 인터페이스 화면을 나타내는 다른 도면이다. 도 8에 도시된 사용자 인터페이스 화면(800)에 있어서 도 7에 도시된 구성들과 동일한 구성들은, 도 7과 동일한 도면 기호를 이용하여 도시하였다.
도 8을 참조하면, 사용자 인터페이스 화면(800)은 사용자 인터페이스 화면(710)에 비하여 TV로 통화 요청에 대응되는 메뉴(725)를 더 포함할 수 있다. 메뉴(725)는 도 7에 도시된 메뉴(771)에 동일 대응되나, 메뉴(771)와 다른 형태로 표시된 경우를 예로 들어 도시하였다.
사용자 인터페이스 화면(800)이 메뉴(725)를 포함하는 경우, 사용자는 메뉴(725)를 선택(예를 들어, 터치)함으로써, 모바일 기기(500)는 TV 로 통화 요청에 대응되는 사용자 입력을 수신할 수 있다.
모바일 기기(500)의 프로세서(505)는 TV로 통화 요청에 대응되는 사용자 입력이 수신되면(S220), 디스플레이 기기(400)로 영상 통화 요청을 전송한다(S230). S230 단계의 동작은 모바일 기기(500)의 프로세서(505)에 제어에 따라서 통신부(530)에서 수행될 수 있다. 즉, 통신부(530)는 프로세서(505)의 제어에 따라서 영상 통화 요청을 디스플레이 기기(400)로 전송한다.
후속하여, 영상 통화 방법(600)은 모바일 기기(500)에서 제어 UI 화면을 디스플레이 한다(S250). 구체적으로, 모바일 기기(500)는 영상 통화의 수행을 제어하기 위한 사용자 인터페이스 화면인 제어 UI 화면이 디스플레이(520)에서 디스플레이 되도록 제어할 수 있다(S250). S250 단계의 동작은, 프로세서(505)의 제어에 따라서 디스플레이(520)가 제어 UI 화면을 출력함으로써 수행될 수 있다. 제어 UI 화면은 이하에서 도 9를 참조하여 상세히 설명한다.
도 9는 개시된 실시예에 따른 모바일 기기에서 출력하는 사용자 인터페이스 화면을 나타내는 다른 도면이다.
도 9를 참조하면, 모바일 기기(500)는 제어 UI 화면(900)을 출력할 수 있다(S250). 제어 UI 화면(900)은 도 1에서 도시 및 설명한 영상 통화의 동작을 제어하기 위한 적어도 하나의 메뉴들(예를 들어, 113)을 포함할 수 있다.
도 9에 도시된 메뉴(951), 메뉴(952), 메뉴(953) 및 메뉴(954)는 각각 도 1에서 도시 및 설명한 영상 통화 화면의 출력을 모바일 기기(110)와 디스플레이 기기(120) 간에서 상호 변경하기 위한 메뉴(114), 영상 통화를 종료하기 위한 메뉴(116), 영상 통화 시 사용자의 음성을 음소거 처리하기 위한 메뉴(117), 영상 통화 시 사용자의 음성을 스피커 및/또는 이어폰 출력으로 변경하기 위한 메뉴(113) 에 동일 대응되므로, 상세 설명은 생략한다.
또한, 제어 UI 화면(900)은 도시된 메뉴들(951, 952, 953, 954) 이외에도, 영상 통화의 개시, 수행 및 종료 및 적어도 하나의 동작을 제어하기 위한 메뉴를 더 포함할 수 있을 것이다.
또한, 제어 UI 화면(900)은 모바일 기기(500)와 연결된 디스플레이 기기(400), 예를 들어, TV1로 영상 통화가 진행중임을 알리는 상태 메시지(920)를 포함할 수 있다. 또한, 상태 메시지(920)는 영상 통화가 수행되는 상황에 대한 정보가 포함될 수 있다.
또한, 제어 UI 화면(900)은 사용자에 대한 이미지 및 상대방에 대한 이미지를 포함하는 영상 통화 화면이 제어 UI 화면(900) 내에 표시되도록 요청하는 메뉴(930)를 더 포함할 수 있다. 메뉴(930)에 대응되는 사용자 입력이 수신되면, 프로세서(505)는 영상 통화 화면이 제어 UI 화면 내의 일부 영역(예를 들어, 940) 내에서 표시되도록 제어할 수 있다.
또한, 제어 UI 화면(900)은 사용자에 대한 이미지 및 상대방에 대한 이미지를 포함하는 영상 통화 화면이 제어 UI 화면 내의 일부 영역(예를 들어, 940) 내에서 표시되도록 제어할 수 있다. 즉, 제어 UI 화면(900)는 메뉴(930)를 선택하는 사용자 입력이 존재하지 않더라도, 영상 통화 화면이 제어 UI 화면 내의 일부 영역(예를 들어, 940) 내에서 표시되도록 제어할 수 있다.
도 10은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 일 흐름도이다.
도 10을 참조하면, 영상 통화 방법(1000)은 개시된 실시예에 따른 디스플레이 기기, 예를 들어, 디스플레이 기기(400)를 통하여 수행되는 영상 통화 방법을 도시한다. 또한, 도 10은 개시된 실시예에 따른 디스플레이 기기, 예를 들어, 디스플레이 기기(400)에서 수행되는 동작들의 흐름을 나타내는 흐름도가 될 수 있다.
도 10을 참조하면, 영상 통화 방법(1000)은 디스플레이 기기(400)에서 영상 통화 요청을 수신하는 단계를 포함한다(S230). 구체적으로, 통신부(330)는 프로세서(310)의 제어에 따라서 모바일 기기(500) 로부터 전송되는 영상 통화 요청을 수신할 수 있다.
영상 통화 요청이 수신되면, 디스플레이 기기(400)에 포함되는 카메라(340)가 활성화된다(S240). 구체적으로, S230 단계에서 수신된 영상 통화 요청에 응답하여, 프로세서(310)는 카메라(340)가 활성화되도록 제어하며, 그에 따라서 카메라(340)는 영상 촬영을 개시할 수 있다. 구체적으로, 프로세서(310)는 카메라(340), 전면 카메라(미도시)가 활성화되도록 제어하여, 카메라(340)가 사용자에 대한 이미지를 획득할 수 있도록 한다. 즉, 영상 통화 요청이 수신되면, 사용자는 디스플레이 기기(400)를 보면서 영상 통화를 하기를 원하는 것으로 판단하고, 프로세서(310)는 사용자가 디스플레이 기기(400)에서 디스플레이 되는 영상 통화 화면을 보면서 영상 통화를 할 수 있도록, 카메라(340)를 활성화 시켜서 영상 통화에 필요한 사용자 이미지를 획득할 수 있다.
또한, 영상 통화 방법(1000)은 활성화된 카메라(340)에서 획득된 사용자에 대한 이미지에 대응되는 데이터를 디스플레이 기기(400)에서 모바일 기기(500)로 전송할 수 있다(단계 미도시). 이 경우, 모바일 기기(500)는 디스플레이 기기(400)로부터 전송되는 사용자에 대한 이미지에 대응되는 데이터를, 상대방 기기(미도시)로 전송할 수 있다.
또는, 영상 통화 방법(1000)은 활성화된 카메라(340)에서 획득된 사용자에 대한 이미지에 대응되는 데이터를 디스플레이 기기(400)에서 영상 통화를 지원하는 서버(미도시)로 직접 전송할 수 있다(단계 미도시).
영상 통화 방법(1000)은 상대방 기기(미도시)에서 사용자에 대한 제2 이미지가 포함되는 영상 통화 화면이 디스플레이될 수 있도록, 디스플레이 기기(400)에서 획득된 사용자에 대한 이미지에 대응되는 데이터를 디스플레이 기기(400에서 모바일 기기(500) 및/ 영상 통화를 지원하는 서버(미도시) 중 적어도 하나로 전송하는 단계(단계 미도시)를 더 포함할 수 있다.
계속하여, 영상 통화 방법(1000)은 영상 통화의 상대방에 대한 이미지 데이터를 획득할 수 있다(S260). 구체적으로, 디스플레이 기기(120)는 영상 통화의 상대방에 대한 이미지 데이터를 획득할 수 있다(S260). 여기서, S260 단계의 동작은, 프로세서(310)의 제어에 따라서 통신부(330)에서 수행될 수 있다.
구체적으로, S260 단계의 동작은, 디스플레이 기기(400)가 통신부(330)를 통하여 영상 통화를 지원하는 서버(미도시)에 직접 접속하여, 상대방 기기(미도시)에서 전송되는 상대방에 대한 이미지 데이터를 수신함으로써 이뤄질 수 있다.
또는, S260 단계의 동작은, 디스플레이 기기(400)가 모바일 기기(500)로부터 상대방에 대한 이미지 데이터를 전송받음으로써 이뤄질 수 있다. 이 경우, 모바일 기기(500)는 통신부(530)를 통하여 영상 통화를 지원하는 서버(미도시)에 접속하여, 상대방 기기(미도시)에서 전송되는 사용자에 대한 이미지 데이터를 수신할 수 있다. 그리고, 모바일 기기(500)는 서버(미도시)로부터 전송되는 상대방에 대한 이미지 데이터를 디스플레이 기기(400)로 전달할 수 있다. 또는, 모바일 기기(500)는 서버(미도시)로부터 전송되는 상대방에 대한 이미지 데이터에 근거하여 상대방에 대한 이미지('제1 이미지')를 생성할 수 있다. 그리고, 생성된 제1 이미지가 디스플레이 기기(400)에서 미러링될 수 있도록, 제1 이미지에 대응되는 미러링 데이터를 생성하고, 생성된 미러링 데이터를 디스플레이 기기(400)로 전송할 수 있다.
계속하여, 영상 통화 방법(1000)은 디스플레이 기기(400)에서 영상 통화 화면을 디스플레이 한다(S270). S270 단계의 동작은 프로세서(310)의 제어에 따라서 디스플레이(320)에서 수행될 수 있다.
구체적으로, 디스플레이 기기(400)는 S260 동작을 통하여 획득된 이미지 데이터에 근거하여 생성되는 상대방에 대한 제1 이미지 및 디스플레이 기기(400)의 카메라에서 획득된 사용자에 대한 제2 이미지를 포함하는 영상 통화 화면(예를 들어, 도 1의 140)이 디스플레이(320)를 통하여 디스플레이 할 수 있다(S270).
도 11은 개시된 실시예에 따른 디스플레이 기기에서 출력하는 영상 통화 화면을 나타내는 도면이다. 도 11에 있어서, 도 1 및 도 4에서 도시한 구성과 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다.
도 11을 참조하면, 개시된 실시예에 따르면, 사용자(1101)는 모바일 기기(500)와 연결되는 디스플레이 기기(400)의 디스플레이(320)를 보면서 영상 통화를 할 수 있다. 구체적으로, 디스플레이 기기(500)의 디스플레이(320)는 상대방에 대한 이미지인 제1 이미지(142) 및 사용자에 대한 이미지인 제2 이미지(143)을 포함하는 영상 통화 화면(140)를 보면서 영상 통화를 할 수 있다. 또한, 디스플레이 기기(400)의 카메라(340)는 디스플레이 기기(400)의 전면(131)을 촬영하여, 영상 통화 화면의 생성에 필요한 사용자에 대한 이미지를 획득할 수 있다.
개시된 실시예에 따르면, 사용자(1101)는 모바일 기기(500)에 비하여 큰 화면을 제공하는 디스플레이 기기(400)의 화면을 보면서 영상 통화를 함으로써, 보다 실감나게 영상 통화를 할 수 있다. 또한, 영상 통화를 위해서 모바일 기기(500)가 사용자 자신의 얼굴을 촬영할 수 있도록 모바일 기기(500)를 들기 위해서 팔을 움직일 필요가 없으므로, 보다 편리하게 영상 통화를 할 수 있게 된다.
도 12는 개시된 실시예에 따른 영상 통화 방법을 설명하기 위한 일 도면이다.
또한, 도 12는 개시된 실시예에 따른 모바일 기기(예를 들어, 110 또는 500) 또는 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 설명하기 위한 도면이다. 도 12에 있어서, 도 1 내지 도 11에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 따라서, 도 12에 도시된 영상 통화 방법을 설명하는데 있어서, 도 1 내지 도 11에서와 중복되는 설명은 생략한다.
또한, 도 12에 도시된 동작들을 수행하는 모바일 기기의 예로 도 5에 도시된 모바일 기기(500)를 예로 들어 도시하였다. 그리고, 도 12에 도시된 동작들을 수행하는 디스플레이 기기의 예로 도 4에 도시된 디스플레이 기기(400)를 예로 들어 도시하였다.
도 12를 참조하면, 모바일 기기(500)는 도 2에서 설명한 모바일 기기(110)에 비하여 S245 단계, S255 단계 및 S257 단계 중 적어도 하나의 단계를 더 수행할 수 있다.
도 12를 참조하면, S220 단계에서 사용자 입력에 근거하여, 모바일 기기(500)는 카메라(540)를 비활성화시킬 수 있다(S245). 구체적으로, 모바일 기기(500)의 프로세서(505)는 S220 단계에서의 사용자 입력이 수신되는 것에 응답하여, 카메라(540)가 촬영을 수행하지 않는 상태인 비활성화 상태가 되도록 제어할 수 있다. S220 단계에서 수신되는 사용자 입력은 디스플레이 기기(400)가 영상 통화 화면을 출력하고 사용자에 대한 이미지를 획득, 구체적으로, 디스플레이 기기(400)의 카메라(340)가 사용자를 촬영하여 사용자에 대한 이미지를 획득하도록 하는 요청이 될 수 있다. 따라서, S220 단계에서 수신되는 사용자 입력에 대응하여 디스플레이 기기(400)가 영상 통화 화면의 출력 및 사용자에 대한 촬영 동작을 수행하게 되면, 모바일 기기(500)는 영상 통화에 필요한 사용자에 대한 촬영 동작을 수행할 필요가 없게 된다. 그러므로, 모바일 기기(500)는 카메라(540)가 비활성화 상태가 되도록 제어함으로써, 불필요하게 카메라(540)가 작동하는 것을 방지하여 카메라(540)를 활성화 시키기 위해서 필요한 소비 전력을 감소시킬 수 있다.
여기서, S220 단계에서 수신되는 사용자 입력은 디스플레이 기기(400)를 통하여 영상 통화 화면이 출력되도록 요청하기 위한 입력이 된다. 구체적으로, 사용자 입력은 영상 통화는 모바일 기기(500)에서 수행되면서 영상 통화 화면의 출력을 디스플레이 기기(400)에서 수행되도록 요청하기 위한 입력이 될 수 있다. 여기서, 영상 통화 화면의 출력은 사용자에 대한 이미지 획득 동작을 수반할 수 있으므로, 디스플레이 기기(400)는 카메라(340)를 통한 사용자에 대한 이미지 획득 및 디스플레이(320)를 통한 영상 통화 화면의 출력 동작을 수행할 수 있다.
구체적으로, S220 단계에서 수신되는 사용자 입력에 근거하여, 모바일 기기(500)는 상대방에 대한 이미지 데이터를 수신할 수 있다(S255). S255 단계의 동작을, 프로세서(505)의 제어에 따라서 통신부(530)에서 수행될 수 있다.
구체적으로, S220 단계에서 수신되는 사용자 입력에 근거하여, 모바일 기기(500)는 영상 통화를 지원하는 서버(미도시)에 접속하여 상대방 기기(미도시)와 영상 통화를 위한 데이터를 송수신할 수 있다(S255). 구체적으로, 모바일 기기(500)는 디스플레이 기기(400)로부터 S240 단계에서의 활성화된 카메라에 의해서 획득된 사용자에 대한 이미지에 대응되는 이미지 데이터를 수신할 수 있다(S257). 이 경우, S255 단계는 수신된 사용자에 대한 이미지에 대응되는 이미지 데이터를 영상 통화를 지원하는 서버(미도시)로 전송하는 단계를 더 포함할 수 있다. 즉, S255 단계는 모바일 기기(500)와 영상 통화를 지원하는 서버(미도시) 간의 이미지 데이터 송수신 동작을 포함할 수 있다.
그리고, 모바일 기기(500)는 S255 단계에서 영상 통화를 지원하는 서버(미도시)로부터 수신되는 상대방에 대한 이미지에 대응되는 이미지 데이터를 디스플레이 기기(400)로 전송할 수 있다(S257). 여기서, S257 단계는 프로세서(505)의 제어에 따라서 통신부(530)에서 수행될 수 있다. 또한, S257 단계는 디스플레이 기기(400)의 카메라(340)에서 획득된 사용자에 대한 이미지에 대응되는 이미지 데이터를 모바일 기기(500)로 전송하는 단계를 더 포함할 수 있다. 즉, S257 단계는 모바일 기기(500)와 디스플레이 기기(400) 간의 이미지 데이터 송수신 동작을 의미할 수 있다.
그에 따라서, 디스플레이 기기(400)는 모바일 기기(500)로부터 상대방에 대한 이미지에 대응되는 이미지 데이터를 수신함으로써(S257), 상대방에 대한 이미지에 대응되는 이미지 데이터를 획득할 수 있다(S260). S260 단계의 동작을, 프로세서(310)의 제어에 따라서 통신부(330)에서 수행될 수 있다.
개시된 실시예에서, 모바일 기기(500)는 영상 통화를 지원하는 서버(미도시)로부터 수신되는 상대방에 대한 이미지 데이터를 디스플레이 기기(400)로 그대로 전달할 수 있다.
개시된 실시예에서, 모바일 기기(500)의 프로세서(505)는 모바일 기기(500)에서 생성되는 상대방에 대한 이미지를 디스플레이 기기(400)가 미러링하여 디스플레이할 수 있도록, 상대방에 대한 이미지를 포함하는 미러링 데이터를 디스플레이 기기(400)로 전송할 수 있다.
또는, S257 단계에서 모바일 기기(500)에서 디스플레이 기기(400)로 전송되는 상대방에 대한 이미지 데이터는 미러링 데이터가 될 수 있다. 구체적으로, 모바일 기기(500)의 프로세서(505)는 영상 통화를 지원하는 서버(미도시)로부터 수신되는 상대방에 대한 이미지 데이터에 근거하여, 영상 통화에 이용되는 상대방에 대한 이미지를 생성할 수 있다. 그리고, 프로세서(505)는 생성된 상대방에 대한 이미지가 디스플레이 기기(400)에서 미러링되어 출력되도록, 상대방에 대한 이미지를 미러링하기 위한 미러링 데이터를 생성할 수 있다. 그리고, 생성된 미러링 데이터를 디스플레이 기기(400)로 전송할 수 있다. 그에 따라서, 디스플레이 기기(400)의 프로세서(310)는 모바일 기기(500)에서 생성되는 상대방에 대한 이미지를 미러링하여, 모바일 기기(500)로부터 상대방에 대한 이미지 데이터가 수신되도록 제어할 수 있다.
도 13은 개시된 실시예에 따른 모바일 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다. 또한, 도 13은 개시된 실시예에 따른 모바일 기기(예를 들어, 110 또는 500)에서 수행되는 동작들을 나타내는 흐름도가 될 수 있다. 또한, 도 13에 도시된 구성들에 있어서, 도 6 및 도 12에 도시된 구성들과 동일한 것은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 이전에서 설명한 구성들과 중복되는 설명은 생략한다.
도 13을 참조하면, 영상 통화 방법(1300)은 모바일 기기(예를 들어, 110 또는 500)에서 수행될 수 있다. 이하에서는, 영상 통화 방법(1300)이 도 5에 도시된 모바일 기기(500)를 통하여 수행되는 경우를 예로 들어 설명한다. 그리고, 영상 통화 방법(1300)를 설명하는데 있어서, 모바일 기기(500)와 연결되는 디스플레이 기기로, 도 4에 도시된 디스플레이 기기(400)를 예로 들어 참조하도록 한다.
도 13을 참조하면, 영상 통화 방법(1300)은 도 6에 도시된 영상 통화 방법(600)에 비하여, S210, S245, S255 및 S257 단계 중 적어도 하나의 단계를 더 포함할 수 있다.
구체적으로, 영상 통화 방법(1300)은 모바일 기기(500)와 디스플레이 기기(400) 간의 페어링(pairing)을 수행할 수 있다(S210). 도 13에서는 페어링 단계(S210)의 동작이 S220 단계 이전에 수행되는 경우를 예로 들어 설명하였으나, 페어링 단계(S210)의 동작은 영상 통화를 요청하는 사용자 입력이 수신되면 수행될 수도 있으며, S220 단계의 수행과 동시 또는 전후에 수행될 수도 있을 것이다.
영상 통화 방법(1300)은, S220 단계에서 수신되는 사용자 입력에 근거하여 카메라(540)를 비활성화 시킬 수 있다(S245). 도 13에서는 S245 단계가 S230 단계에 후속하여 수행되는 경우를 예로 들어 도시하였으나, S245 단계는 S220 단계와 동시에 또는 S220 단계에 후속하여 수행되면 족할 것이다.
영상 통화 방법(1300)은, 디스플레이 기기(400)로부터 사용자에 대한 이미지 데이터를 수신하고(255), S255 단계에서 수신된 사용자에 대한 이미지 데이터를 영상 통화를 지원하는 서버(미도시)로 전송할 수 있다(S257).
도 14는 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다. 또한, 도 14는 개시된 실시예에 따른 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 나타내는 흐름도가 될 수 있다. 또한, 도 14에 도시된 구성들에 있어서, 도 10 및 도 12에 도시된 구성들과 동일한 것은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 이전에서 설명한 구성들과 중복되는 설명은 생략한다.
도 14를 참조하면, 영상 통화 방법(1400)은 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행될 수 있다. 이하에서는, 영상 통화 방법(1400)이 도 4에 도시된 디스플레이 기기(400)를 통하여 수행되는 경우를 예로 들어 설명한다. 그리고, 영상 통화 방법(1400)를 설명하는데 있어서, 디스플레이 기기(400)와 연결되는 모바일 기기로, 도 5에 도시된 모바일 기기(500)를 예로 들어 참조하도록 한다.
도 14를 참조하면, 영상 통화 방법(1400)의 S260 단계는, 모바일 기기(500)로부터 상대방에 대한 이미지 데이터를 수신하는 단계를 포함할 수 있다. 구체적으로, 디스플레이 기기(400)는 기기(500)로부터 상대방에 대한 이미지 데이터를 수신함으로써, 상대방에 대한 이미지 데이터를 획득할 수 있다.
도 15는 개시된 실시예에 따른 영상 통화 방법을 설명하기 위한 다른 도면이다. 또한, 도 15는 개시된 실시예에 따른 모바일 기기(예를 들어, 110 또는 500) 또는 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 설명하기 위한 도면이다. 도 15에 있어서, 도 1 내지 도 14에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 따라서, 도 15에 도시된 영상 통화 방법을 설명하는데 있어서, 도 1 내지 도 14에서와 중복되는 설명은 생략한다.
또한, 도 15에 도시된 동작들을 수행하는 모바일 기기의 예로 도 5에 도시된 모바일 기기(500)를 예로 들어 도시하였다. 그리고, 도 15에 도시된 동작들을 수행하는 디스플레이 기기의 예로 도 4에 도시된 디스플레이 기기(400)를 예로 들어 도시하였다.
도 15를 참조하면, 디스플레이 기기(400)는 도 2에서 설명한 디스플레이 기기(120)에 비하여 S1545 단계의 동작을 더 수행할 수 있다.
그리고, 도 15에 도시된 S1525 단계는 도 2의 S230 단계에 대응될 수 있다.
개시된 실시예에 있어서, 모바일 기기(500)는 상대방에 대응되는 상대방 기기에 대한 접속 정보를 포함하는 영상 통화 요청을, 디스플레이 기기(400)로 전송할 수 있다.
도 15를 참조하면, 모바일 기기(500)는 영상 통화의 상대방에 대응되는 상대방 기기(미도시)에 대한 접속 정보를 포함하는 영상 통화 요청을 디스플레이 기기(400)로 전송할 수 있다(S1525). 그에 따라서, 디스플레이 기기(400)는 상대방 기기(미도시)에 대한 접속 정보를 포함하는 영상 통화 요청을 수신할 수 있다. 여기서, S1525 단계의 동작은, 모바일 기기(500)의 프로세서(505)의 제어에 따라서 통신부(530)에서 상대방 기기(미도시)에 대한 접속 정보를 포함하는 영상 통화 요청을 전송함으로써 수행될 수 있다. 또한, S1525 단계의 동작은, 디스플레이 기기(400)의 프로세서(310)의 제어에 따라서 통신부(330)에서 상대방 기기(미도시)에 대한 접속 정보를 포함하는 영상 통화 요청을 수신함으로써 수행될 수 있다.
여기서, 상대방 기기(미도시)에 대한 접속 정보는 상대방과 통화하기 위해서 상대방 기기(미도시)와 연결되기 위한 통신 접속 정보가 될 수 있다. 예를 들어, 접속 정보는 상대방 기기(미도시)에 대한 휴대전화 번호(예를 들어, 도 7의 720) 등이 될 수 있다.
또한, S1525 단계에서 전송되는 영상 통화 요청은, 모바일 기기(500)를 통하여 개시된 영상 통화가 디스플레이 기기(120)를 통하여 수행되도록 하는 요청이 될 수 있다. 구체적으로, 모바일 기기(500)를 통하여 개시된 영상 통화가 디스플레이 기기(120)에서 수행되면, 디스플레이 기기(120)가 영상 통화를 지원하는 서버(미도시)에 직접 접속하여, 영상 통화에 필요한 이미지 데이터를 모바일 기기(500)를 통하지 않고 송수신할 수 있다.
디스플레이 기기(400)는 S1525 단계에서 수신되는 접속 정보에 근거하여, 영상 통화를 지원하는 서버(미도시)를 통하여 상대방 기기(미도시) 간의 영상 통화를 수행할 수 있다(S1545). 여기서, S1545 단계의 동작은 프로세서(310)의 제어에 따라서 수행될 수 있다. 구체적으로, 프로세서(310)는 S1525 단계에서 수신된 접속 정보에 근거하여 상대방 기기(미도시)로부터(구체적으로, 상대방 기기(미도시)에서 영상 통화를 지원하는 서버(미도시)를 통하여) 상대방에 대한 이미지 데이터가 수신되도록 통신부(330)를 제어할 수 있다.
그에 따라서, 디스플레이 기기(400)는 영상 통화에 필요한 상대방에 대한 이미지 데이터를 영상 통화를 지원하는 서버(미도시)로부터 직접 수신함으로써, 상대방에 대한 이미지 데이터를 획득할 수 있다(S260).
도 16은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다. 또한, 도 16는 개시된 실시예에 따른 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 나타내는 흐름도가 될 수 있다. 또한, 도 16에 도시된 구성들에 있어서, 도 10 및 도 15에 도시된 구성들과 동일한 것은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 이전에서 설명한 구성들과 중복되는 설명은 생략한다.
도 16을 참조하면, 영상 통화 방법(1600)은 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행될 수 있다. 이하에서는, 영상 통화 방법(1600)이 도 4에 도시된 디스플레이 기기(400)를 통하여 수행되는 경우를 예로 들어 설명한다. 그리고, 영상 통화 방법(1600)를 설명하는데 있어서, 디스플레이 기기(400)와 연결되는 모바일 기기로, 도 5에 도시된 모바일 기기(500)를 예로 들어 참조하도록 한다.
도 16를 참조하면, 디스플레이 기기(400)는 도 10에서 디스플레이 기기(400)의 동작들에 비하여, S1545 단계의 동작을 더 수행할 수 있다. 그리고, 도 16에 도시된 S1525 단계는 도 2의 S230 단계에 대응될 수 있다.
디스플레이 기기(400)는 상대방 기기(미도시)에 대한 접속 정보를 포함하는 영상 통화 요청을 수신할 수 있다(S1525).
계속하여, 디스플레이 기기(400)는 S1525 단계에서 수신되는 접속 정보에 근거하여, 영상 통화를 지원하는 서버(미도시)를 통하여 상대방 기기(미도시) 간의 영상 통화를 수행할 수 있다(S1545). 구체적으로, 프로세서(310)는 S1525 단계에서 수신된 접속 정보에 근거하여 상대방 기기(미도시)로부터(구체적으로, 상대방 기기(미도시)에서 영상 통화를 지원하는 서버(미도시)를 통하여) 상대방에 대한 이미지 데이터가 수신되도록 통신부(330)를 제어할 수 있다.
도 16에서는 S1545 단계가 S240 단계에 후속하여 수행되는 경우를 예로 들어 도시하였으나, S1545 단계는 S1525 단계에서 수신되는 영상 통화 요청에 근거하여 수행된다. 따라서, S1545 단계는 S15250 단계에 후속하여 수행되면 족할 것이다.
영상 통화 방법(1600)이 S1545 단계를 포함하는 경우, 디스플레이 기기(400)는 영상 통화에 필요한 상대방에 대한 이미지 데이터를 영상 통화를 지원하는 서버(미도시)로부터 직접 수신함으로써, 상대방에 대한 이미지 데이터를 획득할 수 있다(S260).
도 17은 개시된 실시예에 따른 영상 통화 방법을 설명하기 위한 또 다른 도면이다. 또한, 도 17은 개시된 실시예에 따른 모바일 기기(예를 들어, 110 또는 500) 또는 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 설명하기 위한 도면이다. 도 17에 있어서, 도 1 내지 도 16에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 따라서, 도 17에 도시된 영상 통화 방법을 설명하는데 있어서, 이전의 설명들과 중복되는 설명은 생략한다.
또한, 도 17에 도시된 동작들을 수행하는 모바일 기기의 예로 도 5에 도시된 모바일 기기(500)를 예로 들어 도시하였다. 그리고, 도 12에 도시된 동작들을 수행하는 디스플레이 기기의 예로 도 4에 도시된 디스플레이 기기(400)를 예로 들어 도시하였다.
도 17을 참조하면, 디스플레이 기기(400)는 도 2에서 설명한 디스플레이 기기(120)에 비하여, S1710, S1720 및 S1740 단계의 동작을 더 수행할 수 있다.
개시된 실시예에 있어서, 디스플레이 기기(400)의 프로세서(310)는 사용자의 시선을 감지할 수 있다(S1710). 구체적으로, 디스플레이 기기(400)의 프로세서(310)는 사용자에 대한 이미지에 근거하여 사용자의 시선을 감지할 수 있다(S1710). 그리고, S1710 단계에서 감지되는 사용자의 시선이 디스플레이 기기(400)에서 모바일 기기(500)로 변경되면, 시선의 변경에 대응하여 디스플레이 기기(400) 및 모바일 기기(500) 중 적어도 하나의 화면이 전환되도록 제어할 수 있다.
S1710 단계에 있어서, 사용자의 시선 감지는 영상 통화를 위하여 획득된 사용자에 대한 이미지를 분석하여 수행될 수 있다. 구체적으로, 프로세서(310)는 사용자에 대한 이미지를 분석하여 눈동자, 안면, 사용자의 전체적인 자세, 및 머리의 이동(또는, 회전) 중 적어도 하나에 대한 변경이 존재하는지 식별함으로써, 사용자의 시선이 디스플레이 기기(400)에서 모바일 기기(500)로 변경되었는지 여부를 판단할 수 있다. 구체적으로, 이미지 분석을 통한 시선 감지는 gaze detection 기법, eye tracking 기법, head pose estimation 기법 등을 이용할 수 있다.
또한, S1710 단계에 있어서, 사용자의 시선을 감지하기 위해서 별도의 센서, 예를 들어, 근적외선(NIR) 센서, ToF(Time of Flight) 센서, 구조광(SL) 센서 등을 이용하여, 사용자의 시선을 감지할 수 있을 것이다. 이 경우, 디스플레이 기기(400)는 사용자의 시선을 감지하기 위한 센서(미도시)를 더 포함할 수 있다.
또한, S1710 단계에 있어서, 사용자의 시선은 사용자의 음성에 근거하여 감지될 수 있다.
개시된 실시예에서, 디스플레이 기기(400)는 사용자의 음성을 감지하는 센서(미도시)를 더 포함할 수 있다. 여기서, 음성을 감지하는 센서(미도시)는 도 4에서 도시한 오디오 입력부(467)가 될 수 있다. 그리고, 프로세서(310)는 사용자의 음성을 감지한 결과에 근거하여, 사용자의 시선이 디스플레이 기기(400)에서 모바일 기기(500)로 변경되는지 판단할 수 있다. 그리고, 사용자의 시선이 변경되면, 영상 통화 화면의 출력을 종료하고, 영상 통화가 모바일 기기(500)에서 수행되도록 제어할 수 있다. 구체적으로, 프로세서(310)는 영상 통화가 모바일 기기(500)에서 수행되도록 요청하는 제어 신호를 모바일 기기(500)로 전송함으로써, 영상 통화가 모바일 기기(500)에서 수행되도록 제어할 수 있다.
구체적으로, 디스플레이 기기(400)에 포함되는 오디오 입력부(465)가 사용자의 음성을 감지하고, 감지된 사용자의 음성의 방향성이 디스플레이 기기(400)를 향하는지 모바일 기기(500)를 향하는지 여부를 식별함으로써 수행될 수 있다.
또는, 디스플레이 기기(400) 및 모바일 기기(500)가 각각 사용자의 음성을 감지하면서, 더 큰 음량을 감지하는 기기로 사용자의 시선이 존재하는 것으로 인식할 수도 있을 것이다.
그리고, 디스플레이 기기(400)는 시선의 변경에 대응하여 영상 통화 화면의 출력이 모바일 기기(500)에서 수행되도록 요청하는 화면 전환 요청을 모바일 기기(500)로 전송할 수 있다(S1720). 그리고, 디스플레이 기기(400)는 시선의 변경에 대응하여 S270 단계에서 디스플레이 되는 영상 통화 화면을 다른 형태의 화면으로 전환할 수 있다(S1740). 구체적으로, 디스플레이 기기(400)는 디스플레이(320)를 통하여 출력되는 화면이 영상 통화 화면에서 영상 통화가 시작되기 이전에 출력되었던 화면으로 전환할 수 있다. 예를 들어, 디스플레이 기기(400)는 영상 통화 화면이 출력되기 이전에 재생되었던 컨텐츠에 대응되는 화면을 디스플레이할 수 있을 것이다. 예를 들어, 디스플레이 기기(400)가 채널 1을 통하여 방송되는 컨텐츠를 재생하던 도중에, S220 단계의 영상 통화 요청을 수신하였다고 하자. 그러면, S1710 단계의 감지 결과 사용자의 시선 변경이 감지되면, 디스플레이 기기(400)는 영상 통화 화면의 출력을 종료하고 다시 채널 1을 통하여 방송되는 컨텐츠가 재생되도록 화면 전환을 수행할 수 있다.
구체적으로, 프로세서(310)는 S1710 단계에서 감지되는 사용자의 시선이 디스플레이 기기(400)에서 모바일 기기(500)로 변경되면, S270 단계에서의 영상 통화 화면의 출력을 종료하고, 영상 통화 화면의 출력이 모바일 기기(500)에서 수행되도록 제어할 수 있다.
S1720 단계의 화면 전환 요청에 근거하여, 모바일 기기(500)는 영상 통화 화면이 디스플레이(520)를 통하여 출력되도록 제어할 수 있다. 구체적으로, 모바일 기기(500)는 사용자의 시선이 모바일 기기(500)에 위치하므로, 모바일 기기(500)에 포함되는 카메라(540)를 활성화시켜서 사용자에 대한 이미지를 획득할 수 있다. 그리고, 모바일 기기(500)는 획득된 사용자에 대한 이미지 및 상대방에 대한 이미지를 포함하는 영상 통화 화면을 생성하여, 디스플레이(520)에서 디스플레이 되도록 제어할 수 있다.
이하에서는, 사용자에 대한 이미지 분석을 통하여, 사용자의 시선 감지 및 시선 변화를 감지하는 실시예를, 이하에서 도 19 및 도 20을 참조하여 상세히 설명한다.
도 19는 개시된 실시예에 따른 디스플레이 기기를 통하여 수행되는 시선 감지 동작을 설명하기 위한 일 도면이다. 그리고, 도 20은 개시된 실시예에 따른 디스플레이 기기를 통하여 수행되는 시선 감지 동작을 설명하기 위한 다른 도면이다. 도 19 및 도 20에 있어서, 도 11에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다.
도 19를 참조하면, 사용자(1101)는 디스플레이 기기(400)에서 출력되는 영상 통화 화면(140)을 보면서 상대방과의 영상 통화를 할 수 있다. 영상 통화가 수행되는 동안에, 디스플레이 기기(400)는 사용자의 시선을 감지할 수 있다. 예를 들어, 디스플레이 기기(400)는 활성화된 카메라(340)를 이용하여 영상 통화에 이용되는 사용자에 대한 이미지를 획득할 수 있다. 그리고, 획득된 사용자에 대한 이미지를 분석하여, 사용자의 시선(1905)이 디스플레이 기기(400)에 대응되는지 여부를 인식할 수 있다.
도 20을 참조하면, 사용자(1101)은 디스플레이 기기(400)에서 출력되는 영상 통화 화면(140)을 보면서 영상 통화를 하던 중에, 모바일 기기(500)의 화면(501)을 보기 위해서 자세를 2010 자세에서 2020 자세와 같이 변경할 수 있다.
이러한 경우, 디스플레이 기기(400)는 사용자에 대한 이미지에 근거하여 사용자의 자세, 눈동자, 안면 등을 분석하여 사용자의 시선이 디스플레이 기기(400)에서 모바일 기기(500)로 변경되었음을 감지할 수 있을 것이다.
도 20을 참조하면, 사용자(1101)의 디스플레이 기기(400)를 바라보던 시선(1905)이 모바일 기기(500)를 바라보는 시선(1920)으로 변경될 수 있다. 그러면, 디스플레이 기기(400)는 이러한 시선 변경을 감지하고, 시선 변경에 대응되는 화면 전환 요청을 모바일 기기(500)로 전송할 수 있다(S1720). 모바일 기기(500)는 S1720 단계에서 수신되는 화면 전환 요청에 응답하여 자동적으로 영상 통화 화면이 출력되도록 디스플레이(520)를 제어할 수 있다.
개시된 실시예에서는, 사용자(1101)의 시선이 디스플레이 기기(400)에서 모바일 기기(500)로 변경되는 경우, 모바일 기기(500)에서 영상 통화 화면을 출력 및 영상 통화에 필요한 사용자에 대한 이미지 획득(구체적으로, 카메라 촬영) 동작을 수행할 수 있도록 한다. 그에 따라서, 사용자의 의도에 맞춰서 탄력적으로 영상 통화 화면을 제공하는 기기를 변경할 수 있으며, 사용자의 만족도 및 편리성을 증가시킬 수 있다.
또한, 개시된 실시예에 있어서, 사용자의 시선을 감지하는 동작은, 현재 영상 통화 화면을 출력하는 동작 및 사용자에 대한 이미지를 획득하는 동작을 수행하고 있는 기기에서 수행될 수 있다. 도 19에서와 같이 사용자의 시선이 변경된 경우, 모바일 기기(500)가 영상 통화에 필요한 사용자에 대한 이미지 촬영을 시작하며 영상 통화 화면이 모바일 기기(500)의 디스플레이(520)를 통하여 출력되게 된다. 따라서, 모바일 기기(500)는 사용자에 대한 이미지 촬영을 통하여 획득된 사용자에 대한 이미지를 분석하여 사용자의 시선을 감지하는 동작을 수행할 수 있다. 또한, 모바일 기기(500)가 사용자의 시선이 디스플레이 기기(400)로 다시 변경되는 것을 감지하는 경우, 모바일 기기(500)는 다시 디스플레이 기기(400)를 영상 통화 요청을 전송할 수 있을 것이다. 그러면, 디스플레이 기기(400)는 영상 통화 요청에 근거하여, 영상 통화 화면을 출력하기 위해서 필요한 동작들(예를 들어, S240, S260 및 S270 동작 등)을 수행할 수 있을 것이다.
도 18은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다. 도 18에 도시된 영상 통화 방법(1800)은 개시된 실시예에 따른 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 나타내는 흐름도가 될 수 있다. 또한, 도 18에 도시된 구성들에 있어서, 도 17에 도시된 구성들과 동일한 것은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 이전에서 설명한 구성들과 중복되는 설명은 생략한다.
이하에서는, 영상 통화 방법(1800)이 도 4에 도시된 디스플레이 기기(400)를 통하여 수행되는 경우를 예로 들어 설명한다. 그리고, 영상 통화 방법(1800)를 설명하는데 있어서, 디스플레이 기기(400)와 연결되는 모바일 기기로, 도 5에 도시된 모바일 기기(500)를 예로 들어 참조하도록 한다.
도 18을 참조하면, 영상 통화 방법(1800)은 도 10에 도시된 영상 통화 방법(1000)에 비하여, S210, S1710 및 S1740 단계 중 적어도 하나를 더 포함할 수 있다. 도 18에 도시된 S1710 및 S1740 단계의 구체적인 동작은, 도 17, 도 19 및 도 20을 참조하여 상세히 설명하였으므로, 구체적인 설명은 생략한다.
도 21은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 다른 흐름도이다. 도 21에 도시된 영상 통화 방법(2100)은 개시된 실시예에 따른 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 나타내는 흐름도가 될 수 있다. 또한, 도 21에 도시된 구성들에 있어서, 도 10 또는 도 18에 도시된 구성들과 동일한 것은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 이전에서 설명한 구성들과 중복되는 설명은 생략한다.
도 21을 참조하면, 영상 통화 방법(2100)은 도 10에 도시된 영상 통화 방법(1000)에 비하여, S210, S2110 및 S2120 단계 중 적어도 하나를 더 포함할 수 있다. 도 18에 도시된 S1710 및 S1740 단계의 구체적인 동작은, 도 17, 도 19 및 도 20을 참조하여 상세히 설명하였으므로, 구체적인 설명은 생략한다.
S270 단계에서 영상 통화 화면을 출력한 이후에, 디스플레이 기기(400)는 영상 통화의 전환에 대한 요청을 수신할 수 있다(S2110). 여기서, 영상 통화의 전환에 대한 요청은, i) 영상 통화를 다시 모바일 기기(500)로 하고자 하는 요청, 구체적으로, 영상 통화 화면의 출력 및 영상 통화를 위한 사용자에 대한 이미지 획득을 모바일 기기(500)에서 수행되도록 하는 요청, ii) 컨텐츠의 재생에 대한 요청, 또는 iii) 영상 통화 화면의 출력에 대한 중단 요청을 포함할 수 있다.
구체적으로, 사용자가 디스플레이 기기(400)를 제어 하기 위한 원격 제어 장치(미도시)를 조작하여, CH1을 선택하는 사용자 입력을 디스플레이 기기(400)로 전송하는 경우, 디스플레이 기기(400)는 사용자 입력에 근거하여 영상 통화 화면의 출력을 종료하고, CH1을 통하여 전송되는 컨텐츠에 대응되는 화면이 디스플레이(320)를 통하여 디스플레이 되도록 제어할 수 있다.
구체적으로, 디스플레이 기기(400)의 사용자 인터페이스(450)를 통하여 영상 통화의 전환에 대한 요청에 대응되는 사용자 입력을 수신할 수 있다. 여기서, 영상 통화의 전환에 대한 요청에 대응되는 사용자 입력을 설명의 편의 상 '제1 입력'이라 칭할 수 있다.
디스플레이 기기(400)를 통하여 제1 입력이 수신되면, 프로세서(310)는 제1 입력의 수신에 근거하여 영상 통화 화면의 출력을 종료하고, 영상 통화가 모바일 기기(500)에서 수행되도록 제어할 수 있다.
구체적으로, S2110 단계는 영상 통화의 전환에 대한 요청을 포함하는 제어 신호를, 모바일 기기(500)로 전송하는 단계를 더 포함할 수 있다(단계 미도시). 그러면, 제어 신호를 수신한 모바일 기기(500)는 영상 통화 화면이 디스플레이(520)를 통하여 출력되어, 영상 통화가 디스플레이 기기(400)가 아닌 모바일 기기(500)를 통하여 이뤄질 수 있도록 한다.
계속하여, 영상 통화 방법(2100)은 S2110 에서 수신된 요청에 근거하여, 디스플레이(320)로 출력되는 화면을 전환할 수 있다(S2120). S2120 단계의 동작은 이하에서 도 22를 참조하여 상세히 설명한다.
도 22는 개시된 실시예에 따른 디스플레이 기기에서 수행되는 화면의 전환 동작을 설명하기 위한 일 도면이다.
도 22를 참조하면, 모바일 기기(500)는 먼저, 도 8에 도시된 사용자 인터페이스 화면(800)과 동일한 화면을 출력할 수 있다. 그리고, 모바일 기기(800)와 페어링되나 페어링 대상이 되는 디스플레이 기기(400)는 CH1에서 제공되는 컨텐츠의 재생 화면(2210)을 디스플레이 할 수 있다.
사용자는 사용자 인터페이스 화면을 통하여, 영상 통화 화면의 출력이 디스플레이 기기(400)를 통하여 이뤄지도록 요청할 수 있다(S230).
후속하여, 모바일 기기(500)는 S250 단계에서 설명한 제어 UI 화면(2210)을 디스플레이 할 수 있다. 그리고, 디스플레이 기기(400)는 영상 통화 화면(2220)을 출력할 수 있다(S270).
후속하여, 영상 통화의 전환에 대한 요청이 수신되면(S2110), 디스플레이 기기(400)는 영상 통화 화면(2220)의 출력을 종료하고 다시 CH1을 통하여 방송되는 컨텐츠가 재생되도록 화면 전환을 수행할 수 있다. 그에 따라서, 디스플레이 기기(400)는 다시 CH1을 통하여 전송되는 컨텐츠에 대응되는 화면(2270)을 디스플레이할 수 있다.
또한, 영상 통화의 전환에 대한 요청이 수신되면(S2110), 영상 통화의 전환을 알리는 제어 신호가 모바일 기기(500)로 전송될 수 있다. 그러면, 모바일 기기(500)는 영상 통화 화면(2230)을 출력할 수 있다.
도 23은 개시된 실시예에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법을 나타내는 또 다른 흐름도이다. 도 23에 도시된 영상 통화 방법(2300)은 개시된 실시예에 따른 디스플레이 기기(예를 들어, 120, 300, 또는 400)에서 수행되는 동작들을 나타내는 흐름도가 될 수 있다. 또한, 도 23에 도시된 구성들에 있어서, 도 10 또는 도 18에 도시된 구성들과 동일한 것은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 이전에서 설명한 구성들과 중복되는 설명은 생략한다.
도 23을 참조하면, 영상 통화 방법(2100)은 도 10에 도시된 영상 통화 방법(1000)에 비하여, S210, S2310 및 S2320 단계 중 적어도 하나를 더 포함할 수 있다.
구체적으로, S270 단계에서 영상 통화 화면을 출력한 이후에, 디스플레이 기기(400)는 컨텐츠의 재생 요청을 수신할 수 있다(S2310). S2310 단계의 동작은 사용자 인터페이스(450)를 통하여 수행될 수 있다. 구체적으로, 사용자가 디스플레이 기기(400)를 제어 하기 위한 원격 제어 장치(미도시)를 조작하여, 사용자가 원하는 컨텐츠의 재생을 요청하는 사용자 입력이 사용자 인터페이스(450)를 통하여 전송되도록 할 수 있다.
디스플레이 기기(400)는, S2310에서 수신된 컨텐츠의 재생 요청에 근거하여, 디스플레이되는 화면을 전환할 수 있다(S2320). S2320 단계의 동작은 프로세서(310)의 제어에 따라서 수행될 수 있다.
CH1을 선택하는 사용자 입력을 디스플레이 기기(400)로 전송하는 경우, CH1을 통하여 전송되는 컨텐츠에 대응되는 화면이 디스플레이(320)를 통하여 디스플레이 되도록 제어할 수 있다. 여기서, 컨텐츠의 재생 요청에 근거하여 디스플레이된 화면이 변경되는 것을 '화면 전환'이라 칭할 수 있다. 화면 전환 동작은 이하에서 도 24를 참조하여 상세히 설명한다.
도 24는 개시된 실시예에 따른 디스플레이 기기에서 수행되는 화면의 전환 동작을 설명하기 위한 다른 도면이다. 도 24에 있어서, 도 22에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다.
도 24를 참조하면, 디스플레이 기기(400)가 영상 통화 화면(2220)을 출력한 이후에, 컨텐츠 재생 요청이 수신될 수 있다(S2310). 여기서, 컨텐츠 재생 요청(2310)은 특정된 컨텐츠에 대한 재생 요청뿐만 아니라, 컨텐츠 재생을 위한 서치 요청(예를 들어, 채널 조작 키에 대응되는 입력)을 포함할 수 있을 것이다.
구체적으로, 사용자가 컨텐츠를 시청하기 위해서 원격 제어 장치(미도시)에 포함되는 채널 업 키 또는 채널 다운 키를 조작하면, 디스플레이 기기(400)는 이러한 사용자의 조작 또는 사용자 입력에 대응되는 컨텐츠 재생 요청을 수신할 수 있다.
그러면, 디스플레이 기기(400)는 재생 요청된 컨텐츠에 대응되는 이미지(2412)를 포함하는 화면(2410)이 디스플레이 되도록 제어할 수 있다.
구체적으로, 디스플레이 기기(400)의 프로세서(310)는 컨텐츠 재생 요청에 근거하여 디스플레이되는 화면을 제1 영역 및 제2 영역으로 분할하고, 상기 제1 영역을 통하여 상기 영상 통화 화면이 출력되도록 제어하고 상기 제2 영역을 통하여 상기 컨텐츠를 포함하는 화면이 출력되도록 제어할 수 있다.
도 24를 참조하면, 디스플레이 기기(400)의 프로세서(310)는 컨텐츠에 대응되는 이미지(2412) 및 영상 통화 화면(2411)을 모두 포함하는 화면(2410)이 디스플레이 되도록 제어할 수 있다.
디스플레이 기기(400)에서 출력되는 화면(2410)이 컨텐츠에 대응되는 이미지(2412) 및 영상 통화 화면(2411)을 모두 포함하는 경우, 디스플레이 기기(400)는 컨텐츠에 대응되는 오디오 및 영상 통화에 대응되는 오디오를 선택적으로 출력할 수 있을 것이다. 예를 들어, S2310 단계에서 수신되는 요청이, 컨텐츠를 검색하기 위한 채널 업 키 또는 채널 다운 키의 조작에 대응되는 요청이면, 디스플레이 기기(400)는 컨텐츠에 대응되는 오디오를 출력하지 않고 영상 통화에 대응되는 오디오가 출력되도록 제어할 수 있다. 또 다른 예로, S2310 단계에서 수신되는 요청이, 특정 컨텐츠 또는 특정 채널을 직접 선택하는 조작에 대응되는 요청이면, 디스플레이 기기(400)는 컨텐츠에 대응되는 오디오가 출력되도록 제어할 수 있다.
도 25는 개시된 실시예에 따른 디스플레이 기기에서 수행되는 화면의 전환 동작을 설명하기 위한 또 다른 도면이다.
개시된 실시예에서, 영상 통화의 전환에 대한 요청은 모바일 기기(500)를 통하여 수신될 수 있다(S2510). 구체적으로, 모바일 기기(500)가 제어 UI 화면(2210)을 출력한 이후에, 사용자는 포함되는 영상 통화 전환을 요청하기 위한 메뉴인 '영상 통화 전환 TV ↔ 모바일'메뉴를 선택할 수 있다. 그러면, 모바일 기기(500)는 영상 통화 화면이 다시 모바일 기기(500)를 통하여 출력되도록 제어하며, 영상 통화의 전환을 요청하는 제어 신호를 디스플레이 기기(400)로 전송할 수 있다.
그에 따라서, 모바일 기기(500)는 다시 영상 통화 화면(2520)을 출력하며, 디스플레이 기기(400)는 영상 통화 화면(2220)의 출력을 종료할 수 있다. 그리고, 디스플레이 기기(400)는 영상 통화가 수행되기 이전에 출력되었던 컨텐츠에 대응되는 화면(2201)이 다시 출력되도록 제어할 수 있다.
도 26은 개시된 실시예에 따른 디스플레이 기기에서 수행되는 디스플레이의 위치 변경 동작을 설명하기 위한 도면이다.
개시된 실시예에서, 디스플레이 기기(400)의 프로세서(310)는 S220 단계에서 수신되는 영상 통화 요청에 근거하여, 디스플레이(320)의 위치가 영상 통화 화면에 대응되도록 이동되도록 제어할 수 있다.
구체적으로, 디스플레이 기기(400)는 디스플레이(320)가 90도 만큼 회전하여 가로 방향 또는 세로 방향으로 배치되도록 이동할 수 있는 디스플레이 기기가 될 수 있다. 이러한 디스플레이 기기를 세로 TV 라 칭할 수 있다.
도 26을 참조하면, 도시된 디스플레이 기기(2600)는 개시된 실시예에 따른 디스플레이 기기(120, 300 또는 400)에 동일 대응될 수 있다.
도 26을 참조하면, 디스플레이 기기(2600)는 S220 단계의 영상 통화 요청을 수신하기 이전에는 가로 방향으로 배치되는 디스플레이(2610)를 포함할 수 있다. 영상 통화 요청이 수신되기 이전이므로, 디스플레이 기기(2600)는 컨텐츠의 재생 화면(2630)을 디스플레이 할 수 있다.
그리고, S220 단계의 영상 통화 요청이 수신되면, 디스플레이 기기(2600)는 영상 통화 요청에 근거하여 디스플레이(2610)의 위치가 도시된 디스플레이(2620)와 같이 변경되도록, 디스플레이의 위치를 조절할 수 있다.
그리고, 디스플레이 기기(2600)는 세로 방향으로 배치되는 디스플레이(2620)를 통하여 영상 통화 화면(2650)이 출력되도록 제어할 수 있다.
도 26을 참조하여 설명한 바와 같이, 개시된 실시예는, 영상 통화 화면을 출력하는지 여부에 따라서 디스플레이 기기(2600)에 포함되는 디스플레이의 배치 방향을 조절함으로, 영상 통화에 더욱 부합하는 화면이 출력되도록 할 수 있다.
도 27은 개시된 실시예에 따른 디스플레이 기기를 나타내는 또 다른 블록도이다. 디스플레이 기기(2700)는 도 1 내지 도 26를 참조하여 설명한 개시의 실시예에 따른 디스플레이 장치(예를 들어, 120, 300, 400, 또는 2600)에 동일 대응될 수 있다. 그러므로, 디스플레이 기기(2700)를 설명하는데 있어서, 도 1 내지 도 26에서와 중복되는 설명은 생략한다.
구체적으로, 도 27에 도시된 디스플레이 기기(2700)에 포함되는 프로세서(2780), 디스플레이 부(2715), 통신부(2750), 메모리(2790), 카메라부(2762) 및 오디오 출력부(2725) 각각은 도 4에 도시된 디스플레이 기기(400)에 포함되는 프로세서(310), 디스플레이(320), 통신부(330), 메모리(470), 카메라(340) 및 오디오 출력부(460)에 동일 대응될 수 있다.
비디오 처리부(2710)는, 디스플레이 기기(2700)가 수신한 비디오 데이터에 대한 처리를 수행한다. 비디오 처리부(2710)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
프로세서(2780)는 비디오 처리부(2710)에서 처리된 비디오 데이터에 대한 기록 요청을 수신하고, 비디오 데이터를 암호화하여 프로세서(2780) 또는 메모리(2790)에 포함되는 메모리 장치(미도시), 예를 들어, RAM(미도시)에 기록되도록 제어할 수 있을 것이다.
디스플레이 부(2715)는 프로세서(2780)의 제어에 의해 튜너부(2740)를 통해 수신된 방송 신호에 포함된 비디오를 화면에 표시한다. 또한, 디스플레이 부(2715)는 통신부(2750) 또는 입/출력부(2770)를 통해 입력되는 컨텐츠(예를 들어, 동영상)를 표시할 수 있다.
또한, 디스플레이 부(2715)는 프로세서(2780)의 제어에 의해 메모리(2790)에 저장된 영상을 출력할 수 있다. 또한, 디스플레이 부(2715)는 음성 인식에 대응되는 음성 인식 태스크를 수행하기 위한 음성 UI(User Interface: 예를 들어, 음성 명령어 가이드를 포함하는) 또는 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 모션 인식을 위한 사용자 모션 가이드를 포함)를 표시할 수 있다.
오디오 처리부(2720)는 오디오 데이터에 대한 처리를 수행한다. 오디오 처리부(2720)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 한편, 오디오 처리부(2720)는 복수의 컨텐츠에 대응되는 오디오를 처리하기 위해 복수의 오디오 처리 모듈을 구비할 수 있다.
오디오 출력부(2725)는 프로세서(2780)의 제어에 의해 튜너부(2740)를 통해 수신된 방송 신호에 포함된 오디오를 출력한다. 오디오 출력부(2725)는 통신부(2750) 또는 입/출력부(2770)를 통해 입력되는 오디오(예를 들어, 음성, 사운드)를 출력할 수 있다. 또한, 오디오 출력부(2725)는 프로세서(2780)의 제어에 의해 메모리(2790)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(2725)는 스피커(2726), 헤드폰 출력 단자(2727) 또는 S/PDIF(Sony/Philips Digital Interface: 출력 단자(2728) 중 적어도 하나를 포함할 수 있다. 오디오 출력부(2725)는 스피커(2726), 헤드폰 출력 단자(2727) 및 S/PDIF 출력 단자(2728)의 조합을 포함할 수 있다.
전원부(2730)는 프로세서(2780)의 제어에 의해 디스플레이 기기(2700) 내부의 구성 요소들(2710 내지 2790)로 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원부(2730)는 프로세서(2780)의 제어에 의해 디스플레이 기기(2700) 내부에 위치하는 하나 또는 둘 이상의 배터리(미도시)에서부터 출력되는 전원을 내부의 구성 요소들(2710 내지 2790)에게 공급할 수 있다.
튜너부(2740)은 유선 또는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 디스플레이 기기(2700)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 방송 신호는 오디오(audio), 비디오(video) 및 부가 정보(예를 들어, EPG(Electronic Program Guide))를 포함한다.
튜너부(2740)는 사용자 입력(예를 들어, 외부의 제어 장치(미도시), 예를 들어, 원격 제어기(remote controller)로부터 수신되는 제어 신호, 예컨대, 채널 번호 입력, 채널의 업다운(up-down) 입력 및 EPG 화면에서 채널 입력)에 따라 채널 번호(예를 들어, 케이블 방송 506번)에 대응되는 주파수 대역에서 방송 신호를 수신할 수 있다.
튜너부(2740)은 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 신호를 수신할 수 있다. 튜너부(2740)는 아날로그 방송 또는 디지털 방송 등과 같은 소스로부터 방송 신호를 수신할 수 도 있다. 튜너부(2740)를 통해 수신된 방송 신호는 디코딩(decoding, 예를 들어, 오디오 디코딩, 비디오 디코딩 또는 부가 정보 디코딩)되어 오디오, 비디오 및/또는 부가 정보로 분리된다. 분리된 오디오, 비디오 및/또는 부가 정보는 프로세서(2780)의 제어에 의해 메모리(2790)에 저장될 수 있다.
디스플레이 기기(2700)의 튜너부(2740)는 하나이거나 복수일 수 있다. 일 실시예에 따라서 튜너부(2740)가 복수개로 이루어지는 경우, 디스플레이 부(2715)에 제공되는 멀티 뷰 화면을 이루는 복수개의 부분 화면들에 복수개의 방송 신호를 출력할 수 있을 것이다.
튜너부(2740)는 디스플레이 기기(2700)와 일체형(all-in-one)으로 구현되거나 또는 디스플레이 기기(2700)와 전기적으로 연결되는 튜너부를 가지는 별개의 장치(예를 들어, 셋탑박스(set-top box, 미도시), 입/출력부(2770)에 연결되는 튜너부(미도시))로 구현될 수 있다.
통신부(2750)는 프로세서(2780)의 제어에 의해 디스플레이 기기(2700)를 외부 기기(예를 들어, 오디오 장치 등)와 연결할 수 있다. 프로세서(2780)는 통신부(2750)를 통해 연결된 외부 기기로 컨텐츠를 송/수신, 외부 기기에서부터 어플리케이션(application)을 다운로드 하거나 또는 웹 브라우징을 할 수 있다. 구체적으로, 통신부(2750)는 네트워크에 접속하여 외부 기기(미도시)에서 컨텐츠를 수신할 수 있다.
전술한 바와 같이 통신부(2750)는 근거리 통신 모듈(미도시), 유선 통신 모듈(미도시), 및 이동 통신 모듈(미도시) 중 적어도 하나를 포함할 수 있다.
개시된 실시예에서, 통신부(2750)은 이동 통신 모듈(미도시)를 통하여 영상 통화를 지원하는 서버(미도시)와 통신을 수행할 수 있다. 또한, 통신부(2750)은 근거리 통신 모듈(미도시) 또는 유선 통신 모듈(미도시)를 통하여 모바일 기기(예를 들어, 모바일 기기(500))와 통신을 수행할 수 있을 것이다.
도 7에서는 통신부(2750)가 무선 랜(2751), 블루투스 통신부(2752), 및 유선 이더넷(Ethernet, 2753) 중 하나를 포함하는 경우를 예로 들어 도시하였다.
또한, 통신부(2750)은 무선랜(2751), 블루투스 통신부(2752), 및 유선 이더넷(Ethernet, 2753) 중 어느 하나 이상을 포함하는 모듈 조합을 포함할 수 있다. 또한, 통신부(2750)는 프로세서(2780)의 제어에 의해 제어 장치(미도시)의 제어 신호를 수신할 수 있다. 제어 신호는 블루투스 타입, RF 신호 타입 또는 와이파이 타입으로 구현될 수 있다.
통신부(2750)는 블루투스 외에 다른 근거리 통신(예를 들어, NFC(near field communication, 미도시), 별도의 BLE 모듈(bluetooth low energy, 미도시)을 더 포함할 수 있다.
감지부(2760)는 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지한다.
마이크(2761)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(2761)는 수신된 음성을 전기 신호로 변환하여 프로세서(2780)로 출력할 수 있다. 사용자 음성은 예를 들어, 디스플레이 기기(2700)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 예를 들어, 마이크(2761)의 인식 범위는 마이크(2761)에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크(2761)의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
마이크(2761)는 디스플레이 기기(2700)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 마이크(2761)는 통신부(2750) 또는 입/출력부(2770)를 통해 디스플레이 기기(2700)와 전기적으로 연결될 수 있다.
디스플레이 기기(2700)의 성능 및 구조에 따라 마이크(2761)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
카메라부(2762)는 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신한다. 예를 들어, 카메라부(2762)의 인식 범위는 카메라부(2762)에서부터 사용자까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 모션은 예를 들어, 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 사용자 일부분의 모션 등을 포함할 수 있다. 카메라부(2762)는 프로세서(2780)의 제어에 따라 수신된 영상을 전기 신호로 변환하여 프로세서(2780)로 출력할 수 있다.
개시된 실시예에서, 감지부(2760)는 사용자의 시선을 감지하기 위한 적어도 하나의 센서(미도시)를 더 포함할 수 있다. 예를 들어, 센서(미도시)는 근적외선(NIR) 센서, ToF(Time of Flight) 센서, 구조광(SL) 센서 등을 포함할 수 있다.
프로세서(2780)는 수신된 모션의 인식 결과를 이용하여 디스플레이 기기(2700)에 표시되는 메뉴를 선택하거나 모션 인식 결과에 대응되는 제어를 할 수 있다. 예를 들어, 채널 조정, 볼륨 조정, 지시자 이동을 포함할 수 있다.
카메라부(2762)는 렌즈(미도시) 및 이미지 센서(미도시)로 구성될 수 있다. 카메라부(2762)는 복수의 렌즈와 이미지 프로세싱을 이용하여 광학 줌(optical zoom) 또는 디지털 줌(digital zoom)을 지원할 수 있다. 카메라부(2762)의 인식 범위는 카메라의 각도 및 주변 환경 조건에 따라 다양하게 설정될 수 있다. 카메라부(2762)가 복수개의 카메라로 구성되는 경우, 복수의 카메라를 이용하여 3차원 정지 이미지 또는 3차원 모션을 수신할 수 있다.
카메라부(2762)는 디스플레이 기기(2700)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 카메라부(2762)를 포함하는 별도의 장치(미도시)는 통신부(2750) 또는 입/출력부(2770)를 통해 디스플레이 기기(2700)와 전기적으로 연결될 수 있다.
디스플레이 기기(2700)의 성능 및 구조에 따라 카메라부(2762)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
광 수신부(2763)는 외부의 제어 장치(미도시)에서부터 수신되는 광 신호(제어 신호를 포함)를 디스플레이 부(2715)의 베젤의 광창(미도시) 등을 통해 수신한다. 광 수신부(2763)는 제어 장치(미도시)로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. 수신된 광 신호로부터 프로세서(2780)의 제어에 의해 제어 신호가 추출될 수 있다.
예를 들어, 광 수신부(2763)는 제어 장치(미도시)의 포인팅 위치에 대응하는 신호를 수신하고 이를 프로세서(2780)로 전송할 수 있다. 예를 들어, 디스플레이 부(2715)를 통하여 사용자로부터 데이터 또는 명령을 입력받기 위한 사용자 인터페이스 화면이 출력되었으며, 제어 장치(미도시)를 통하여 사용자가 데이터 또는 명령을 디스플레이 기기(2700)로 입력하고자 하는 경우, 광 수신부(2763)는 사용자가 제어 장치(미도시)에 마련된 터치 패드(미도시)에 손가락을 접촉한 상태에서 제어 장치(미도시)를 움직이면 이 제어 장치(미도시)의 움직임에 대응하는 신호를 수신하고 이를 프로세서(2780)로 전송할 수 있다. 또한, 광 수신부(2763)는 제어 장치(미도시)에 마련된 특정한 버튼이 눌려졌음을 나타내는 신호를 수신하고 이를 프로세서(2780)로 전송할 수 있다. 예를 들어 광수신부(2763)는 사용자가 제어 장치(미도시)에 버튼식으로 마련된 터치 패드(미도시)를 손가락으로 누르면, 이러한 버튼식 터치 패드(미도시)이 눌려졌다는 신호를 수신하고 이를 프로세서(2780)로 전송할 수 있다. 예를 들어, 버튼식 터치 패드(미도시)가 눌려졌다는 신호는 아이템들 중의 하나를 선택하기 위한 신호로 이용할 수 있다.
입/출력부(2770)는 프로세서(2780)의 제어에 의해 디스플레이 기기(2700)의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신한다. 입/출력부(2770)는 HDMI 포트(High-Definition Multimedia Interface port, 2771), 컴포넌트 잭(component jack, 2772), PC 포트(PC port, 2773), 및 USB 포트(USB port, 2774) 중 하나를 포함할 수 있다. 입/출력부(2770)는 HDMI 포트(2771), 컴포넌트 잭(2772), PC 포트(2773), 및 USB 포트(2774)의 조합을 포함할 수 있다.
입/출력부(2770)의 구성 및 동작은 본 발명의 실시예에 따라 다양하게 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
프로세서(2780)는 디스플레이 기기(2700)의 전반적인 동작 및 디스플레이 기기(2700)의 내부 구성요소들(미도시)사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 프로세서(2780)는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 프로세서(2780)는 메모리(2790)에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
프로세서(2780)는 디스플레이 기기(2700)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 디스플레이 기기(2700)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 RAM(미도시), 디스플레이 기기(2700)의 제어를 위한 제어 프로그램이 저장된 ROM(미도시) 및 프로세서(Processor)(미도시)를 포함할 수 있다.
프로세서(미도시)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 미도시)를 포함할 수 있다. 프로세서(미도시)는 코어(core, 미도시)와 GPU(미도시)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서(미도시)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서(미도시)는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(미도시)는 메인 프로세서(main processor, 미도시) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 미도시)로 구현될 수 있다.
그래픽 처리부(미도시)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 감지부(미도시)를 통해 감지된 사용자 인터랙션을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이 부(2715)의 디스플레이 영역 내에 표시된다.
도 28은 개시된 실시예에 따른 모바일 기기를 나타내는 다른 블록도이다.
도 28에 도시된 모바일 기기(2800)는 도 1 및 25에서 설명한 모바일 기기(110 또는 500)에 동일 대응될 수 있다. 구체적으로, 도 28에 도시된 모바일 기기(2800)에 포함되는 프로세서(2805), 사용자 인터페이스(2810), 디스플레이(2821), 카메라(3061) 및 통신부(2830)는 각각 도 5에 도시된 모바일 기기(500)에 포함되는 프로세서(505), 사용자 인터페이스(510), 디스플레이(520), 카메라(540) 및 통신부(530)에 동일 대응될 수 있다.
따라서, 모바일 기기(2800)를 설명하는데 있어서, 모바일 기기(110, 1500)에 대한 설명과 중복되는 설명은 생략한다.
사용자 인터페이스(2810)는, 사용자가 모바일 기기(2800)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 인터페이스(2810)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
사용자 인터페이스(2810)는, 디스플레이될 가상 이미지를 선택하는 사용자 입력을 수신할 수 있다. 또한, 사용자 인터페이스(2810)는 가상 이미지의 동작을 설정하기 위한 사용자 입력 및 가상 이미지에 관련된 아이템을 구매하기 위한 사용자 입력을 수신할 수 있다.
출력부(2820)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(2820)는 디스플레이(2821), 음향 출력부(2822), 및 진동 모터(2823)를 포함할 수 있다.
디스플레이(2821)는 모바일 기기(2800)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이(2821)는, 가상 이미지를 선택하기 위한 사용자 인터페이스, 가상 이미지의 동작을 설정하기 위한 사용자 인터페이스, 가상 이미지의 아이템을 구매하기 위한 사용자 인터페이스를 디스플레이 할 수 있다.
한편, 디스플레이(2821)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이(2821)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이(2821)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 모바일 기기(2800)의 구현 형태에 따라 모바일 기기(2800)는 디스플레이(2821)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이(2821)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(2822)는 통신부(2830)로부터 수신되거나 메모리(2870)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(2822)는 모바일 기기(2800)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(2822)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(2823)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(2823)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(2823)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
프로세서(2805)는, 통상적으로 모바일 기기(2800)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2805)는, 메모리(2870)에 저장된 프로그램들을 실행함으로써, 사용자 인터페이스(2810), 출력부(2820), 센싱부(2840), 통신부(2830), A/V 입력부(2860) 등을 전반적으로 제어할 수 있다.
센싱부(2840)는, 모바일 기기(2800)의 상태 또는 모바일 기기(2800) 주변의 상태를 감지하고, 감지된 정보를 프로세서(2805)로 전달할 수 있다.
센싱부(2840)는, 지자기 센서(Magnetic sensor)(2841), 가속도 센서(Acceleration sensor)(2842), 온/습도 센서(2843), 적외선 센서(2844), 자이로스코프 센서(2845), 위치 센서(예컨대, GPS)(2846), 기압 센서(2847), 근접 센서(2848), 및 RGB 센서(illuminance sensor)(2849) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
개시된 실시예에서, 센싱부(2840)는 사용자의 시선을 감지하기 위한 적어도 하나의 센서(미도시)를 더 포함할 수 있다. 예를 들어, 센서(미도시)는 근적외선(NIR) 센서, ToF(Time of Flight) 센서, 구조광(SL) 센서 등을 포함할 수 있다.
통신부(2830)는, 모바일 기기(2800)와 HMD 장치(미도시) 또는 모바일 기기(2800)와 서버(서버) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(2830)는, 근거리 통신부(2851), 이동 통신부(2852), 방송 수신부(2853)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(2851)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(2852)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 영상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(2853)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 모바일 기기(2800)가 방송 수신부(2853)를 포함하지 않을 수도 있다.
A/V(Audio/Video) 입력부(2860)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(2861)와 마이크로폰(2862) 등이 포함될 수 있다. 카메라(2861)은 영상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(2805) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(2861)에서 처리된 화상 프레임은 메모리(2870)에 저장되거나 통신부(2830)를 통하여 외부로 전송될 수 있다. 카메라(2861)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(2862)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(2862)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(2862)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(2870)는, 프로세서(2805)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 모바일 기기(2800)로 입력되거나 모바일 기기(2800)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(2870)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(2870)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(2871), 터치 스크린 모듈(2872), 알림 모듈(2873) 등으로 분류될 수 있다.
UI 모듈(2871)은, 애플리케이션 별로 모바일 기기(2800)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(2872)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(2805)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(2872)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(2872)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(2873)은 모바일 기기(2800)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 모바일 기기(2800)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(2873)은 디스플레이(2821)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(2822)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(2823)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
본 개시의 일 실시예에 따른 영상 통화 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 전술한 영상 통화 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.
상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
또한, 전술한 본 개시의 실시예에 따른 영상 통화 방법은 다중언어로 구성된 문장을 획득하는 동작; 및 다중언어 번역 모델을 이용하여, 상기 다중언어로 구성된 문장에 포함되는 단어들 각각에 대응하는 벡터 값들을 획득하고, 상기 획득한 벡터 값들을 목표 언어에 대응하는 벡터 값들로 변환하며, 상기 변환된 벡터 값들에 기초하여, 상기 목표 언어로 구성된 문장을 획득하는 동작을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 제품으로 구현될 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
300: 디스플레이 기기
310: 프로세서
320: 디스플레이
330: 통신부
340: 카메라
모바일 500: 기기
505: 프로세서
510: 사용자 인터페이스
520: 디스플레이
530: 통신부
540: 카메라

Claims (20)

  1. 디스플레이;
    카메라;
    모바일 기기를 포함하는 외부 기기와 통신하는 통신부; 및
    적어도 하나의 인스트럭션을 실행하는 프로세서를 포함하며,
    상기 프로세서는
    모바일 기기로부터 수신되는 영상 통화 요청에 근거하여 상기 카메라를 활성화시키며, 상기 통신부를 통해 영상 통화의 상대방에 대한 이미지 데이터를 획득하고, 상기 이미지 데이터에 근거하여 생성되는 상기 상대방에 대한 제1 이미지 및 상기 카메라에서 획득된 제2 이미지를 포함하는 영상 통화 화면이 상기 디스플레이를 통하여 출력되도록 제어하는, 디스플레이 기기.
  2. 제1항에 있어서, 상기 프로세서는
    상기 통신부를 통하여 상기 모바일 기기로부터 상기 영상 통화의 상대방에 대한 상기 이미지 데이터가 수신되도록 제어하는, 디스플레이 기기.
  3. 제1항에 있어서, 상기 프로세서는
    상기 제2 이미지에 대응되는 이미지 데이터를 상기 모바일 기기로 전송하도록 통신부를 제어하는, 디스플레이 기기.
  4. 제1항에 있어서, 상기 프로세서는
    상기 제2 이미지에 근거하여 상기 사용자의 시선을 감지하고,
    상기 사용자의 시선이 상기 디스플레이 기기에서 상기 모바일 기기로 변경되면, 상기 시선의 변경에 대응하여 디스플레이 기기(400) 및 모바일 기기(500) 중 적어도 하나의 화면이 전환되도록 제어하는, 디스플레이 기기.
  5. 제1항에 있어서, 상기 프로세서는
    상기 제2 이미지에 근거하여 상기 사용자의 시선을 감지하고,
    상기 사용자의 시선이 상기 디스플레이 기기에서 상기 모바일 기기로 변경되면, 상기 카메라를 비활성화시키고 상기 모바일 기기에 포함되는 카메라가 활성화 되도록 제어하는, 디스플레이 기기.
  6. 제1항에 있어서,
    상기 사용자의 시선을 감지하는 센서를 더 포함하며,
    상기 프로세서는
    상기 센서의 감지 결과에 근거하여 상기 사용자의 시선이 상기 디스플레이 기기에서 상기 모바일 기기로 변경되는지 판단하고,
    상기 사용자의 시선이 변경되면, 상기 영상 통화 화면의 출력을 종료하고 상기 영상 통화가 상기 모바일 기기에서 수행되도록 제어하는, 디스플레이 기기.
  7. 제1항에 있어서,
    상기 사용자의 음성을 감지하는 센서를 더 포함하며,
    상기 프로세서는
    상기 센서에서 감지된 상기 사용자 음성의 방향성을 추적하고, 상기 사용자 음성의 방향성이 변경되는지 여부에 근거하여 상기 사용자의 시선이 상기 디스플레이 기기에서 상기 모바일 기기로 변경되는지 판단하고,
    상기 사용자의 시선이 변경되면, 상기 영상 통화 화면의 출력을 종료하고 상기 영상 통화가 상기 모바일 기기에서 수행되도록 제어하는, 디스플레이 기기.
  8. 제1항에 있어서, 상기 프로세서는
    상기 모바일 기기에서 생성되는 상대방에 대한 이미지를 미러링하여, 상기 모바일 기기로부터 상기 이미지 데이터가 수신되도록 제어하는, 디스플레이 기기.
  9. 제1항에 있어서,
    상기 영상 통화 요청은
    상기 영상 통화의 상대방에 대응되는 상대방 기기에 대한 접속 정보를 포함하고,
    상기 프로세서는
    상기 접속 정보에 근거하여 상기 상대방 기기로부터 상기 이미지 데이터가 수신되도록 상기 통신부를 제어하는, 디스플레이 기기.
  10. 제1항에 있어서,
    상기 영상 통화의 전환을 요청하는 제1 입력을 수신하는 사용자 인터페이스를 더 포함하며,
    상기 프로세서는
    상기 제1 입력의 수신에 근거하여 상기 영상 통화 화면의 출력을 종료하고 상기 영상 통화가 상기 모바일 기기에서 수행되도록 제어하는, 디스플레이 기기.
  11. 제1항에 있어서,
    컨텐츠의 재생을 요청하는 제2 입력을 수신하는 사용자 인터페이스를 더 포함하며,
    상기 프로세서는
    상기 제2 입력의 수신에 근거하여 상기 영상 통화 화면의 출력을 종료하고 상기 컨텐츠에 대응되는 화면이 디스플레이 되도록 제어하는, 디스플레이 기기.
  12. 제1항에 있어서,
    컨텐츠의 재생을 요청하는 제2 입력을 수신하는 사용자 인터페이스를 더 포함하며,
    상기 제2 입력의 수신에 근거하여 상기 디스플레이 화면을 제1 영역 및 제2 영역으로 분할하고, 상기 제1 영역을 통하여 상기 영상 통화 화면이 출력되도록 제어하고 상기 제2 영역을 통하여 상기 컨텐츠를 포함하는 화면이 출력되도록 제어하는, 디스플레이 기기.
  13. 제1항에 있어서, 상기 프로세서는
    상기 영상 통화 요청에 근거하여, 상기 디스플레이의 위치가 상기 영상 통화 화면에 대응되도록 이동되도록 제어하는, 디스플레이 기기.
  14. 디스플레이;
    카메라;
    사용자 인터페이스;
    디스플레이 기기를 포함하는 외부 기기와 통신하는 통신부; 및
    적어도 하나의 인스트럭션을 실행하는 프로세서를 포함하며,
    상기 프로세서는
    상기 디스플레이 기기를 통하여 영상 통화 화면이 출력되도록 요청하는 사용자 입력이 상기 사용자 인터페이스를 통하여 수신되면, 상기 사용자 입력에 대응되는 영상 통화 요청을 상기 디스플레이 기기로 전송되도록 상기 통신부를 제어하고,
    상기 영상 통화의 수행을 제어하기 위한 사용자 인터페이스 화면이 상기 디스플레이를 통하여 출력되도록 제어하는, 모바일 기기.
  15. 제14항에 있어서, 상기 프로세서는
    상기 영상 통화의 상대방 기기로부터 상기 영상 통화의 상대방에 대한 이미지 데이터가 수신되면, 상기 이미지 데이터가 상기 디스플레이 기기로 전송되도록 상기 통신부를 제어하는, 모바일 기기.
  16. 제14항에 있어서, 상기 프로세서는
    상기 디스플레이 기기를 통화여 영상 통화 화면이 출력되도록 요청하는 제1 메뉴를 포함하는 사용자 인터페이스 화면이 상기 디스플레이에서 출력되도록 제어하며,
    상기 제1 메뉴를 선택하는 사용자 입력이 수신되면, 상기 영상 통화의 상대방 기기에 대한 접속 정보를 상기 디스플레이 기기로 전송하는, 모바일 기기.
  17. 제14항에 있어서, 상기 프로세서는
    상기 영상 통화의 전환을 요청하는 제2 메뉴 및 영상 통화의 종료를 요청하는 제3 메뉴를 포함하는 상기 사용자 인터페이스 화면이 상기 디스플레이에서 출력되도록 제어하는, 모바일 기기.
  18. 제17항에 있어서, 상기 프로세서는
    상기 제2 메뉴 또는 제3 메뉴를 선택하는 사용자 입력이 수신되면 상기 카메라를 활성화시켜 사용자에 대한 제1 이미지를 획득하며,
    상기 제1 이미지 및 상기 상대방에 대한 제1 이미지 및 상기 카메라에서 획득된 사용자에 대한 제2 이미지를 포함하는 상기 영상 통화 화면이 상기 디스플레이를 통하여 출력되도록 제어하는, 모바일 기기.
  19. 디스플레이 기기를 통하여 수행되는 영상 통화 방법에 있어서,
    모바일 기기로부터 수신되는 영상 통화 요청에 근거하여 디스플레이 기기의 카메라를 활성화하는 단계;
    디스플레이 기기에서, 영상 통화의 상대방에 대한 이미지 데이터를 획득하는 단계; 및
    상기 이미지 데이터에 근거하여 생성되는 상기 상대방에 대한 제1 이미지 및 상기 카메라에서 획득된 사용자에 대한 제2 이미지를 포함하는 영상 통화 화면을 상기 디스플레이 기기를 통하여 출력하는 단계를 포함하는, 영상 통화 방법.
  20. 모바일 기기를 통하여 수행되는 영상 통화 방법에 있어서,
    모바일 기기에서, 디스플레이 기기를 통하여 영상 통화 화면이 출력되도록 요청하는 사용자 입력을 수신하는 단계;
    상기 사용자 입력에 대응되는 영상 통화 요청을 상기 모바일 기기에서 상기 디스플레이 기기로 전송하는 단계; 및
    상기 모바일 기기의 디스플레이를 통하여, 상기 영상 통화의 수행을 제어하기 위한 사용자 인터페이스 화면을 출력하는 단계를 포함하는, 영상 통화 방법.
KR1020190179808A 2019-12-31 2019-12-31 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법 KR20210086103A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190179808A KR20210086103A (ko) 2019-12-31 2019-12-31 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법
EP20217565.9A EP3846483A1 (en) 2019-12-31 2020-12-29 Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device
CN202011620570.2A CN113132668A (zh) 2019-12-31 2020-12-30 显示设备、移动设备、由显示设备执行的视频呼叫方法以及由移动设备执行的视频呼叫方法
PCT/KR2020/019430 WO2021137629A1 (en) 2019-12-31 2020-12-30 Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device
US17/139,570 US11240466B2 (en) 2019-12-31 2020-12-31 Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190179808A KR20210086103A (ko) 2019-12-31 2019-12-31 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법

Publications (1)

Publication Number Publication Date
KR20210086103A true KR20210086103A (ko) 2021-07-08

Family

ID=74003737

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190179808A KR20210086103A (ko) 2019-12-31 2019-12-31 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법

Country Status (5)

Country Link
US (1) US11240466B2 (ko)
EP (1) EP3846483A1 (ko)
KR (1) KR20210086103A (ko)
CN (1) CN113132668A (ko)
WO (1) WO2021137629A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11831454B2 (en) * 2020-12-21 2023-11-28 Christopher Max Schwitalla Full dome conference
TWI832061B (zh) * 2021-06-08 2024-02-11 宏正自動科技股份有限公司 影像控制裝置及影像控制方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090284577A1 (en) * 2008-05-13 2009-11-19 Avi Kumar Video telephone system and method
KR101076733B1 (ko) 2008-12-02 2011-10-26 에스케이 텔레콤주식회사 영상통화 서비스 시스템 및 그 방법
KR101525760B1 (ko) * 2009-02-26 2015-06-04 삼성전자주식회사 통화 기능 지원을 위한 사용자 인터페이스 및 이를 지원하는 휴대 단말기
TW201129029A (en) * 2010-02-09 2011-08-16 Wistron Corp Telephone system
US9559869B2 (en) * 2010-05-04 2017-01-31 Qwest Communications International Inc. Video call handling
US8738072B1 (en) * 2010-06-06 2014-05-27 Razmig Hagop Messerian Devices and methods for transferring a multimedia mobile call data from a mobile device to a device having a display
EP2613555A3 (en) * 2012-01-06 2014-04-30 LG Electronics, Inc. Mobile terminal with eye movement sensor and grip pattern sensor to control streaming of contents
KR101953308B1 (ko) * 2012-08-01 2019-05-23 삼성전자주식회사 커뮤니케이션 정보 전송 시스템 및 방법
US8813134B2 (en) * 2012-12-20 2014-08-19 Verizon Patent And Licensing Inc. Mobile device caller ID to smart TV devices
US20140320584A1 (en) * 2013-04-27 2014-10-30 Nvidia Corporation Display data transmission to an external display of a data processing device to enhance a video phone call experience therethrough
US9838528B2 (en) * 2014-07-21 2017-12-05 Verizon Patent And Licensing Inc. Voice and video calling over long term evolution-based user interface
CN106162368A (zh) * 2015-04-24 2016-11-23 中兴通讯股份有限公司 一种支持多媒体电话的融合设备及通信方法、用户设备
KR102273751B1 (ko) * 2015-07-24 2021-07-06 엘지전자 주식회사 디지털 디바이스 및 상기 디지털 디바이스에서 데이터 처리 방법
KR102389038B1 (ko) * 2015-09-02 2022-04-21 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20170064242A (ko) * 2015-12-01 2017-06-09 삼성전자주식회사 영상통화를 제공하는 전자 장치 및 방법
CN105916053A (zh) * 2015-12-30 2016-08-31 乐视致新电子科技(天津)有限公司 一种智能电视音视频通信的方法、终端设备及智能电视
KR102459547B1 (ko) * 2016-01-08 2022-10-27 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
KR20180035434A (ko) * 2016-09-29 2018-04-06 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR101800654B1 (ko) * 2017-03-29 2017-11-23 주식회사 엘지유플러스 고화질 영상 통화 시스템 및 그의 영상 처리 방법, 그리고 영상 통화 어플리케이션을 실행하는 컴퓨터 판독 가능한 기록매체
CN109495769B (zh) * 2017-09-11 2021-07-23 腾讯科技(深圳)有限公司 视频通信方法、终端、智能电视、服务器及存储介质

Also Published As

Publication number Publication date
CN113132668A (zh) 2021-07-16
US11240466B2 (en) 2022-02-01
US20210203878A1 (en) 2021-07-01
WO2021137629A1 (en) 2021-07-08
EP3846483A1 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
US10412379B2 (en) Image display apparatus having live view mode and virtual reality mode and operating method thereof
US11435974B2 (en) Display device, mobile device, screen mirroring method of display device, and screen mirroring method of mobile device
KR20170131104A (ko) 이동 단말기 및 그 제어방법
KR20170006559A (ko) 이동단말기 및 그 제어방법
KR20160006053A (ko) 글래스 타입 단말기 및 그것의 제어방법
KR102223728B1 (ko) 이동단말기 및 그 제어방법
KR101659028B1 (ko) 이동 단말기 및 이의 제어 방법
KR20160006341A (ko) 이동 단말기 및 이의 제어방법
KR20170025177A (ko) 이동단말기 및 그 제어방법
CN109982129B (zh) 短视频的播放控制方法、装置及存储介质
CN111459363B (zh) 信息展示方法、装置、设备及存储介质
KR20170140702A (ko) 이동 단말기
KR20170019262A (ko) 이동 단말기 및 그것의 제어방법
KR20160009976A (ko) 이동 단말기 및 그 제어 방법
KR20180055243A (ko) 이동단말기 및 그 제어방법
CN113407291A (zh) 内容项显示方法、装置、终端及计算机可读存储介质
KR20180000255A (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
KR20170131102A (ko) 이동 단말기 및 그 제어방법
US11240466B2 (en) Display device, mobile device, video calling method performed by the display device, and video calling method performed by the mobile device
CN107967915A (zh) 显示装置及其控制方法
KR20160019279A (ko) 이동단말기 및 그 제어방법
CN113613053B (zh) 视频推荐方法、装置、电子设备及存储介质
KR20160148959A (ko) 이동 단말기 및 그 제어방법
KR20170046947A (ko) 이동 단말기 및 제어 방법
KR20170075579A (ko) 이동 단말기 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination