KR20220164222A - 전자장치 및 그 제어방법 - Google Patents

전자장치 및 그 제어방법 Download PDF

Info

Publication number
KR20220164222A
KR20220164222A KR1020210072712A KR20210072712A KR20220164222A KR 20220164222 A KR20220164222 A KR 20220164222A KR 1020210072712 A KR1020210072712 A KR 1020210072712A KR 20210072712 A KR20210072712 A KR 20210072712A KR 20220164222 A KR20220164222 A KR 20220164222A
Authority
KR
South Korea
Prior art keywords
camera
image
electronic device
display
motion identification
Prior art date
Application number
KR1020210072712A
Other languages
English (en)
Inventor
주선웅
이종인
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210072712A priority Critical patent/KR20220164222A/ko
Priority to PCT/KR2022/007496 priority patent/WO2022255730A1/ko
Publication of KR20220164222A publication Critical patent/KR20220164222A/ko
Priority to US18/527,534 priority patent/US20240121501A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • H04N5/23225
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/2257
    • H04N5/23216
    • H04N5/23218
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • H04N5/642Disposition of sound reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 전자장치에 있어서, 인터페이스부; 디스플레이; 상기 인터페이스부를 통해 연결된 카메라에 의해 촬상되는 영상을 획득하고, 상기 디스플레이에 대하여 상기 카메라가 설치될 수 있는 복수의 위치 중 상기 카메라가 설치된 위치를 나타내는 정보를 획득하고, 상기 복수의 위치에 대응하는 데이터에 기초하여 마련된 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델을 선택하고, 상기 선택된 동작 식별 모델에 기초하여 상기 카메라에 의해 촬상되는 영상으로부터 사용자의 동작을 식별하고, 상기 식별된 사용자의 동작에 기초하여 기능을 수행하는 프로세서를 포함한다.

Description

전자장치 및 그 제어방법{ELECTRONIC APPARATUS AND THE METHOD THEREOF}
본 개시는 카메라를 이용한 다양한 서비스를 제공하는 전자장치 및 그 제어방법에 관한 것이다.
영상통화나 카메라에 촬상되는 모습을 통해 움직임을 인식하여 서비스를 제공하는 등 카메라가 단순 영상을 촬상하는 용도 이외에 다양한 형태로 이용됨에 따라 다양한 위치에 놓여 사용될 수 있다. 카메라는 전자장치의 디스플레이에 부착되거나, 전자장치의 외장 하우징에 거치될 수 있고, 사용자의 편의나 주변 환경 등에 따라 위치를 변경하는 등 임의의 위치에 배치될 수 있다. 따라서, 디스플레이와 카메라 간의 상대적 위치가 일정하지 않을 수 있다. 특히 TV와 같은 전자장치는 디스플레이가 대형화되는 추세이기 때문에, 카메라 위치의 편차가 증가할 수 있다.
이 경우 일 예로, 영상통화 어플리케이션에서, 상대방 모습을 디스플레이에 표시할 때, 카메라와 디스플레이 내 상대방 모습을 표시한 윈도우와의 상대적 위치가 올바르게 정렬되지 않으면, 시선이 다른 곳을 향하는 화면이 표시되어 영상통화 사용자에게 불편함을 초래할 수 있다.
다른 예로, 운동 코칭과 같이 세부적인 움직임과 동작을 인식해야 하는 어플리케이션에서는, 카메라의 위치에 따라, 카메라 영상에 대한 인식률이 달라질 수 있다. 사용자 움직임의 인식은 인공신경망을 활용하여 구현될 수 있으며, 인식률은 학습에 사용된 데이터셋의 영향을 받는다. TV 상단에 카메라가 위치한 것을 가정한 데이터셋으로 학습된 인공신경망은 TV 하단에 카메라가 위치했을 때 인식률이 저하될 수 있다.
본 개시의 목적은 카메라를 이용하는 보다 나은 서비스를 제공하는 전자장치 및 그 제어방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 전자장치에 있어서, 인터페이스부; 디스플레이; 상기 인터페이스부를 통해 연결된 카메라에 의해 촬상되는 영상을 획득하고, 상기 디스플레이에 대하여 상기 카메라가 설치될 수 있는 복수의 위치 중 상기 카메라가 설치된 위치를 나타내는 정보를 획득하고, 상기 복수의 위치에 대응하는 데이터에 기초하여 마련된 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델을 선택하고, 상기 선택된 동작 식별 모델에 기초하여 상기 카메라에 의해 촬상되는 영상으로부터 사용자의 동작을 식별하고, 상기 식별된 사용자의 동작에 기초하여 기능을 수행하는 프로세서를 포함한다.
본 발명의 일 실시예에 따른 전자장치에 있어서, 사용자입력부를 더 포함하고, 상기 프로세서는, 상기 카메라가 설치될 수 있는 복수의 위치를 나타내는 GUI를 상기 디스플레이에 표시하고, 상기 카메라가 설치되는 위치를 선택하는 사용자입력을 상기 GUI를 이용하여 수신할 수 있다.
상기 프로세서는, 상기 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델이 마련되지 않은 것에 기초하여, 상기 카메라의 위치의 변경을 안내하는 알림을 상기 디스플레이에 표시할 수 있다.
상기 카메라에 의해 촬상되는 영상은 제1영상이고, 상기 프로세서는, 상기 복수의 동작 식별 모델 중 상기 카메라의 위치와 소정 범위 내의 위치에서 촬상되는 제2영상에 기초하여 마련된 동작 식별 모델을 선택하고, 상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하고, 상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별할 수 있다.
상기 카메라에 의해 촬상되는 영상은 제1영상이고, 상기 프로세서는, 상기 복수의 동작 식별 모델 중 상기 카메라의 촬상 각도와 소정 범위 내의 촬상 각도로 촬상된 제2영상에 기초하여 마련된 동작 식별 모델을 선택하고, 상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하고, 상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별할 수 있다.
상기 프로세서는, 서로 다른 위치에서 촬상된 복수의 컨텐츠 중 상기 카메라가 설치된 위치에 대응되는 위치에서 촬상된 컨텐츠를 식별하고, 상기 식별된 컨텐츠를 상기 디스플레이에 표시할 수 있다.
상기 프로세서는, 서로 다른 촬상 각도로 촬상된 복수의 컨텐츠 중 상기 카메라의 촬상 각도에 대응하는 촬상 각도로 촬상된 컨텐츠를 식별하고, 상기 식별된 컨텐츠를 상기 디스플레이에 표시할 수 있다.
상기 프로세서는, 상기 식별된 컨텐츠와 상기 카메라가 촬상하는 영상을 함께 상기 디스플레이에 표시할 수 있다.
상기 프로세서는, 상기 획득된 정보에 기초하여 영상통화와 관련된 GUI(Graphic User Interface)를 표시할 상기 디스플레이의 일 영역을 식별하고, 상기 일 영역에 상기 GUI를 표시할 수 있다.
상기 GUI는 영상통화 윈도우, 영상통화 윈도우 애니메이션, 영상통화 수/발신 알림, 및 영상통화 수/발신 알림 애니메이션 중 적어도 하나를 포함할 수 있다.
영상통화와 관련된 음성의 복수의 출력 방향을 가지는 스피커를 더 포함하고, 상기 프로세서는, 복수의 출력 방향 중 상기 일 영역에 근접한 방향으로 상기 음성을 출력하도록 상기 스피커를 제어할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 인터페이스부를 통해 연결된 카메라에 의해 촬상되는 영상을 획득하는 단계; 디스플레이에 대하여 상기 카메라가 설치될 수 있는 복수의 위치 중 상기 카메라가 설치된 위치를 나타내는 정보를 획득하는 단계; 상기 복수의 위치에 대응하는 데이터에 기초하여 마련된 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델을 선택하는 단계; 상기 선택된 동작 식별 모델에 기초하여 상기 카메라에 의해 촬상되는 영상으로부터 사용자의 동작을 식별하는 단계; 및 상기 식별된 사용자의 동작에 기초하여 기능을 수행하는 단계를 포함할 수 있다.
상기 카메라가 설치된 위치를 나타내는 정보를 획득하는 단계는, 상기 카메라가 설치될 수 있는 복수의 위치를 나타내는 GUI를 상기 디스플레이에 표시하는 단계; 및 상기 카메라가 설치되는 위치를 선택하는 사용자입력을 상기 GUI를 이용하여 수신하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 상기 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델이 마련되지 않은 것에 기초하여, 상기 카메라의 위치의 변경을 안내하는 알림을 상기 디스플레이에 표시하는 단계를 더 포함할 수 있다.
상기 카메라에 의해 촬상되는 영상은 제1영상이고, 상기 동작 식별 모델을 선택하는 단계는, 상기 복수의 동작 식별 모델 중 상기 카메라의 위치와 소정 범위 내의 위치에서 촬상되는 제2영상에 기초하여 마련된 동작 식별 모델을 선택하는 단계를 포함하고, 상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하는 단계; 및 상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별하는 단계를 더 포함할 수 있다.
상기 카메라에 의해 촬상되는 영상은 제1영상이고, 상기 동작 식별 모델을 선택하는 단계는, 상기 복수의 동작 식별 모델 중 상기 카메라의 촬상 각도와 소정 범위 내의 촬상 각도로 촬상된 제2영상에 기초하여 마련된 동작 식별 모델을 선택하는 단계를 포함하고, 상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하는 단계; 상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 서로 다른 위치에서 촬상된 복수의 컨텐츠 중 상기 카메라가 설치된 위치에 대응되는 위치에서 촬상된 컨텐츠를 식별하는 단계; 및 상기 식별된 컨텐츠를 상기 디스플레이에 표시하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 서로 다른 촬상 각도로 촬상된 복수의 컨텐츠 중 상기 카메라의 촬상 각도에 대응하는 촬상 각도로 촬상된 컨텐츠를 식별하는 단계; 및 상기 식별된 컨텐츠를 상기 디스플레이에 표시하는 단계를 포함할 수 있다.상기 디스플레이에 표시하는 단계는, 상기 식별된 컨텐츠와 상기 카메라가 촬상하는 영상을 함께 상기 디스플레이에 표시하는 단계를 포함할 수 있다.
상기 획득된 정보에 기초하여 영상통화와 관련된 GUI(Graphic User Interface)를 표시할 상기 디스플레이의 일 영역을 식별하는 단계; 및 상기 일 영역에 상기 GUI를 표시하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 복수의 출력 방향을 가지는 스피커를 통해 상기 복수의 출력 방향 중 상기 일 영역에 근접한 방향으로 영상통화와 관련된 음성을 출력하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따르면, 카메라의 위치를 이용하여, 화면에 표시하는 사용자 인터페이스를 달리함으로써, 디스플레이와 카메라의 상대적 위치에 따른 불편함을 감소시킬 수 있다.
또한, 카메라의 위치에 따른 데이터를 이용하여 카메라 영상에 대한 인식률을 높일 수 있다.
도 1은 전자장치 및 다양한 위치에 위치한 카메라를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 전자장치의 동작 흐름도를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 9는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 구현될 수 있다. 또한, 본 발명의 실시예에서, 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.
도 1은 전자장치 및 다양한 위치에 위치한 카메라를 도시한 도면이다.
본 발명의 일 실시예에 따르면, 전자장치(100)는, 디스플레이(121)를 포함하는 디스플레이장치로서 구현될 수 있다. 일 예로, 전자장치(100)는 TV, 컴퓨터, 스마트 폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등을 포함할 수 있다. 그러나, 본 발명의 사상이 전자장치(100)의 구현 예시에 한정되지 않는 바, 다른 실시예로서, 전자장치(100)는, 유선 또는 무선 연결된 외부의 디스플레이로 신호를 전송하는 셋탑박스와 같은 영상처리장치로서 구현될 수도 있다.
본 발명의 일 실시예에 따르면, 카메라(200)는 도 1에 도시된 바와 같이 다양한 위치에 설치될 수 있다. 일 예로, 전자장치(100)의 외부 하우징에 탈부착 가능하도록 거치될 수 있다. 이 때, 도 1에서 도시하는 거치 가능한 장소는 전자장치(100)의 상단(좌측, 중앙, 우측), 하단(좌측, 중앙, 우측), 우측면(상측, 중앙, 하측), 좌측면(상측, 중앙, 하측)이다. 이하, 도 3 내지 도 10에서 도 1을 참조하는 경우, 해당 용어를 이용하여 설명한다. 다만, 이는 일 예시일 뿐, 카메라가 설치되는 위치는 본 도면에 한정되지 않는다.
또한, 카메라(200)는 전자장치(100) 하부에 놓인 수납장 등 전자장치(100)와 소정 간격 떨어진 위치에 설치되는 등 주변 환경에 따라 그 위치가 달라질 수 있다.
카메라(200)의 위치가 달라지는 경우, 카메라(200)에 의해 촬상된 영상이 달라지게 된다. 따라서, 본 발명에서는 서비스를 제공하는 과정에서 사용자 불편이나 기능 저하가 발생하는 것을 방지하는 전자장치 및 그 제어방법을 제공한다.
이하, 도면을 참조하여, 본 발명 일 실시예에 따른 전자장치의 구성들에 대해 설명하기로 한다.
도 2는 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.
도 2에 도시된 바와 같이, 전자장치(100)는 인터페이스부(110)를 포함할 수 있다.
인터페이스부(110)는 유선 인터페이스부(111)를 포함할 수 있다. 유선 인터페이스부(111)는 지상파/위성방송 등 방송표준에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송표준에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(100)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부(111)는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART 등과 같이, 비디오 및/또는 오디오 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 USB 포트 등과 같은 범용 데이터 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 광 전송표준에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 외부 마이크 또는 마이크를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오 신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오 신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 이더넷 등과 같은 네트워크 전송표준에 따른 커넥터 또는 포트를 포함할 수 있다. 예컨대, 유선 인터페이스부(111)는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.
유선 인터페이스부(111)는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오 신호를 수신하거나 또는 해당 외부기기에 비디오/오디오 신호를 송신한다. 유선 인터페이스부(111)는, 비디오/오디오 신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다.
그리고, 본 실시예에 따르면 유선 인터페이스부(111)는 전자장치(100)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(100)의 커넥터에 착탈될 수도 있다.
인터페이스부(110)는 무선 인터페이스부(112)를 포함할 수 있다. 무선 인터페이스부(112)는 전자장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부(112)는 통신방식으로 RF(radio frequency), 지그비(Zigbee), 블루투스(bluetooth), 와이파이(Wi-Fi), UWB(Ultra WideBand) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다. 무선 인터페이스부(112)는 와이파이(Wi-Fi) 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현될 수 있다. 무선 인터페이스부(112)는 네트워크 상의 서버와 무선 통신함으로써, 서버와의 사이에 데이터 패킷을 송수신할 수 있다. 무선 인터페이스부(112)는 적외선 통신표준에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부(112)는 IR송신부 및/또는 IR수신부를 통해 리모컨 또는 다른 외부기기로부터 리모컨신호를 수신 또는 입력하거나, 다른 외부기기로 리모컨신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(100)는 와이파이(Wi-Fi), 블루투스(bluetooth) 등 다른 방식의 무선 인터페이스부(112)를 통해 리모컨 또는 다른 외부기기와 리모컨신호를 송수신할 수 있다.
전자장치(100)는 인터페이스부(110)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 더 포함할 수 있다.
전자장치(100)가 디스플레이 장치로 구현되는 경우, 디스플레이부(120)를 포함할 수 있다. 디스플레이부(120)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이부(120)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예를 들면 디스플레이 패널이 액정 방식이라면, 디스플레이부(120)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다. 이하 영상이 표시되는 화면 부분을 디스플레이(121)라 한다.
전자장치(100)는 사용자입력부(130)를 포함할 수 있다.
사용자입력부(130)는 사용자의 입력에 의해, 기설정된 다양한 제어 커맨드 또는 한정되지 않은 정보를 프로세서(180)에 전달한다. 사용자입력부(130)는 사용자 입력을 수신할 수 있는 다양한 입력수단을 포함한다.
일 실시예에서 사용자입력부(130)는 전자장치(100)에 마련된 전원키, 숫자키, 메뉴키 등의 버튼을 포함하는 키패드(또는 입력패널)를 포함할 수 있다.
일 실시예에서 사용자입력부(130)는 전자장치(100)를 원격으로 제어 가능하게 기설정된 커맨드/데이터/정보/신호를 생성하여 전자장치(100)로 전송하는 입력장치를 포함할 수 있다. 입력장치는, 예를 들면, 리모컨(remote control), 게임콘솔(game console), 키보드(keyboard), 마우스(mouse) 등을 포함하며, 전자장치(100)와 이격 분리되어, 사용자 입력을 수신할 수 있다.
리모컨에는 사용자 입력을 수신할 수 있는 적어도 하나의 버튼이 마련될 수 있다. 일 실시예에서 리모컨에는 사용자의 터치입력(터치제스처)을 수신하는 터치감지부 및/또는 사용자에 의한 리모컨 자체의 움직임을 감지하는 모션감지부가 마련될 수 있다. 일 실시예에서 입력장치는 리모컨 어플리케이션이 설치된 스마트폰과 같은 단말장치를 포함하며, 이 경우 터치스크린을 통한 사용자의 터치입력이 수신 가능하다.
입력장치는 전자장치(100) 본체와 무선통신이 가능한 외부장치가 되며, 무선통신은 블루투스, 적외선 통신, RF 통신, 무선랜, 와이파이 다이렉트 등을 포함한다.
일 실시예에서 사용자입력부(130)는 사용자의 손의 움직임, 다시 말해, 핸드 제스처(hand gesture)(이하, 제스처 라고도 한다)를 감지하는 모션감지부를 포함할 수 있다. 전자장치(100)는 모션감지부는 손의 이동거리, 이동속도, 이동영역의 면적 등을 감지하여 데이터를 출력할 수 있다.
일 실시예에서 사용자입력부(130)는 디스플레이(121) 주변의 베젤영역에 대한 사용자의 터치를 검출할 수 있는 터치감지부를 포함할 수 있다.
일 실시예에서 사용자로부터 발화된 음성을 수신할 수 있는 마이크로폰(150)와 같은 소리수신부(130)가 사용자입력부(130)에 포함될 수 있다.
일 실시예에서, 사용자입력부(130)는 영상데이터에 대한 프라이버시 처리의 기준이 되는 설정 거리에 대한 사용자입력을 수신할 수 있다. 예를 들면, 사용자입력부(130)를 통해, 설정 거리 또는 설정 거리에 대응하는 기준 위치를 설정 또는 조정(변경)하기 위한 사용자입력이 수신될 수 있다.
전자장치(100)는 저장부(140)를 포함할 수 있다. 저장부(140)는 디지털화된 데이터를 저장한다. 저장부(140)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(storage)와, 프로세서(180)에 의해 처리되기 위한 데이터가 로딩되며 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(memory)를 포함한다. 스토리지에는 플래시메모리(flash-memory), HDD(hard-disc drive), SSD(solid-state drive) ROM(Read Only Memory) 등이 있으며, 메모리에는 버퍼(buffer), 램(RAM; Random Access Memory) 등이 있다.
전자장치(100)는 마이크로폰(150)을 포함할 수 있다. 마이크로폰(150)은 사용자 음성을 비롯한 외부 환경의 소리를 수집한다. 마이크로폰(150)은 수집된 소리의 신호를 프로세서(180)에 전달한다. 전자장치(100)는 사용자 음성을 수집하는 마이크로폰(150)을 구비하거나, 또는 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다. 외부장치에 리모트 컨트롤러 어플리케이션을 설치하여 전자장치(100)를 제어하거나 음성 인식 등의 기능을 수행할 수도 있다. 이와 같은 어플리케이션이 설치된 외부장치의 경우, 사용자 음성을 수신할 수 있으며, 외부장치는 전자장치(100)와 Wi-Fi/BT 또는 적외선 등을 이용하여 데이터 송수신 및 제어가 가능한 바, 상기 통신 방식을 구현할 수 있는 복수의 인터페이스부(110)가 전자장치(100) 내에 존재할 수 있다.
전자장치(100)는 스피커(160)를 포함할 수 있다. 스피커(160)는 프로세서(180)에 의해 처리되는 오디오 데이터를 소리로 출력한다. 스피커(160)는 어느 한 오디오 채널의 오디오 데이터에 대응하게 마련된 단위 스피커를 포함하며, 복수 오디오 채널의 오디오 데이터에 각기 대응하도록 복수의 단위 스피커를 포함할 수 있다. 다른 실시예로서, 스피커(160)는 전자장치(100)와 분리되어 마련될 수 있으며, 이 경우 전자장치(100)는 오디오 데이터를 인터페이스부(110)를 통하여 스피커(160)로 전달할 수 있다.
전자장치(100)는 센서(170)를 포함할 수 있다. 센서(170)는, 전자장치(100)의 상태 또는 전자장치(100) 주변의 상태를 감지하고, 감지된 정보를 프로세서(180)로 전달할 수 있다. 센서(170)는, 카메라를 포함한다.
이 외에도 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
전자장치(100)는 프로세서(180)를 포함할 수 있다. 프로세서(180)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(system on chip)로 구현될 수도 있다. 프로세서(180)는 전자장치(100)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현될 수 있다. 예를 들면, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.
프로세서(180)는 마이크로폰(150) 등에 의해 사용자 음성에 대한 음성신호를 획득하면, 음성신호를 음성데이터로 변환할 수 있다. 이 때, 음성데이터는 음성신호를 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정을 통해 얻어진 텍스트 데이터일 수 있다. 프로세서(180)는 음성데이터가 나타내는 커맨드를 식별하고, 식별된 커맨드에 따라서 동작을 수행한다. 음성데이터 처리 과정과, 커맨드 식별 및 수행 과정은, 전자장치(100)에서 모두 실행될 수도 있다. 그러나, 이 경우에 전자장치(100)에 필요한 시스템 부하 및 소요 저장용량이 상대적으로 커지게 되므로, 적어도 일부의 과정은 네트워크를 통해 전자장치(100)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행될 수 있다.
본 발명에 따른 프로세서(180)는 전자장치(100)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 소프트웨어의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 전자장치(100)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
한편, 프로세서(180)는 상기 인터페이스부를 통해 연결된 카메라에 의해 촬상되는 영상을 획득하고, 상기 카메라가 설치될 수 있는 복수의 위치 중 상기 카메라가 설치된 위치를 나타내는 정보를 획득하고, 상기 복수의 위치에 대응하여 카메라로부터 획득되는 데이터에 기초하여 마련된 복수의 동작 식별 모델 중 상기 획득된 정보에 대응하는 동작 식별 모델을 선택하고, 상기 선택된 동작 식별 모델에 기초하여 상기 카메라에 의해 촬상되는 영상으로부터 사용자의 동작을 식별하고, 상기 식별된 사용자의 동작에 기초하여 기능을 수행하기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.
프로세서(180)는 카메라가 설치될 수 있는 복수의 위치 중 상기 카메라가 설치된 위치를 나타내는 정보를 획득하고, 상기 복수의 위치 각각에 대응하여 카메라로부터 획득되는 데이터를 인공지능 모델의 입력으로 사용하는 데에 적합한 형태로 변환할 수 있다. 인공지능 모델은 학습을 통해 만들어 질 수 있다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다.
추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론(Knowledge based Reasoning), 최적화 예측(Optimization Prediction), 선호 기반 계획(Preference-based Planning), 추천(Recommendation) 등을 포함한다
일 예로, 프로세서(180)는 학습부 및 인식부의 기능을 함께 수행할 수 있다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 일 예로, 학습부는 학습 데이터를 저장부(140) 또는 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성할 수 있다.
학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.
한편 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득할 수 있다. 타겟 데이터는 저장부(140) 또는 외부로부터 획득된 것일 수 있다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 출력값을 획득할 수 있다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득할 수 있다.
일 예로, 본 발명에 따른 전자장치(100)의 제어방법은 컴퓨터 프로그램 제품 (Computer Program Product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은, 앞서 설명한, 프로세서(180)에 의해 실행되는 소프트웨어의 명령어들을 포함할 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
도 3은 본 발명의 일 실시예에 따른 전자장치의 동작 흐름도를 도시한 도면이다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 인터페이스부(110)를 통해 연결된 카메라(200)에 의해 촬상되는 영상을 획득할 수 있다(S310). 카메라(200)는 앞서 도 2에서 설명한 바와 같이 유선 인터페이스부(111)와 무선 인터페이스부(112)를 포함한 인터페이스부(110)를 통해 전자장치(100)와 연결될 수 있고, 그 연결 형태에 구애받지 않는다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 디스플레이에 대하여 카메라(200)가 설치될 수 있는 복수의 위치 중 카메라(200)가 설치된 위치를 나타내는 정보를 획득할 수 있다(S320). 카메라(200)는 도 1에 도시된 바와 같이 다양한 위치에 설치될 수 있으나, 도 1에 도시된 바에 한정되지 않고 사용자의 편의에 따라 정해지거나, 변경될 수 있다.
본 발명의 일 실시예에 따르면, 카메라(200)가 설치된 위치를 나타내는 정보는 카메라(200)가 설치된 위치에 관한 정보 이외에 카메라(200)와 전자장치(100)의 디스플레이(121)와의 상대적 위치를 나타내는 정보를 포함한다. 프로세서(180)는 다양한 방법을 이용하여 카메라(200)가 설치된 위치를 나타내는 정보를 획득할 수 있다.
일 예로, 시선 추적(Gaze Tracking)을 이용하여, 디스플레이(121)의 특정 위치에 미리 지정된 마크를 표시하고 사용자가 이를 바라보도록 유도한 후, 디스플레이(121)와 카메라(200)의 상대적 위치를 식별할 수 있다.
다른 예는 전파수신강도(RSSI; Received Signal Strength Indication)와 삼변측량을 사용하는 방법이다. 전자장치(100)는 인터페이스부(110)를 통해 카메라(200)로부터 무선신호를 수신하고, 프로세서(180)는 수신된 무선신호를 이용하여 카메라(200)와 전자장치(100) 간 전파수신강도(RSSI)를 측정하고, 삼변측량을 사용하여 카메라(200)의 위치를 식별할 수 있다. 이 때, 카메라(200)가 디스플레이(121)의 면과 평행하는 가상 평면 위에서의 2차원 위치를 식별할 수 있다.
또 다른 예로, 하드웨어를 사용하여 위치를 식별하는 방법으로, 전자장치(100)의 외장 하우징, 예를 들어, 디스플레이(121)의 테두리 영역에 센서(170)를 구비하고, 센서(170)에 감지된 위치를 카메라(200)의 위치로 인식할 수 있다. 이 때, 이미 전자장치(100)에 얹어지거나, 부착된 다른 물건과 구분하기 위해, 카메라(200)를 설치하도록 사용자에게 안내하는 사용자 인터페이스를 디스플레이(121)에 표시한 후, 그 전/후 차이를 비교하는 방법을 사용하는 등 다양하게 이용할 수 있다.
카메라(200)의 위치를 특정할 수 있는 하드웨어를 사용하는 또 다른 방법은, 디스플레이에 다중의 카메라 슬롯을 구비하고, 접촉식 센서와 같은 간단한 센서에 의해 어느 슬롯에 카메라가 설치되었는지를 식별하는 방법일 수 있다.
추가로, 사용자입력을 통해 카메라(200)의 위치를 식별하는 방법에 관하여는 도 4에서 자세히 서술한다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 복수의 위치에 대응하여 획득되는 데이터에 기초하여 마련된 복수의 동작 식별 모델 중 카메라(200)가 설치된 위치에 대응하는 동작 식별 모델을 선택할 수 있다(S330).
앞서 설명한 바와 같이, 카메라(200)의 위치에 따라 촬상되는 영상이 달라지고, 표시되는 객체의 모습이 달라질 수 있다. 예를 들어, 도 7의 전자장치(100)는 벽의 일정 높이에 설치된 TV 이고, 도 7의 실시예 1(701)에는 카메라(200)에 의해 촬상된 제1영상(710)이, 도 7의 실시예 2(702)에는 카메라(200)에 의해 촬상된 제2영상(730)이 디스플레이(121)에 표시된다. 제1영상(710)은 우측 상단에서 살짝 비스듬한 각도로 촬상된 영상이다. 반면, 제2영상(730)은 카메라(200)가 우측 하단에 설치되었으나, 벽의 일정 높이에 전자장치(100)가 설치되었으므로, 카메라(200)에 의해 촬상된 영상은 중간 높이에서 촬상된 영상으로 볼 수 있다. 따라서, 촬상된 사람의 모습이 정면에서 촬상한 것처럼 표시된다.
이와 같이, 복수의 위치에 대응하여 카메라(200)로부터 획득되는 영상은 각각 다르다.
본 발명의 일 실시예에 따르면, 위치에 따라 달라지는 영상에 대응하여 동작을 식별하기 위해 복수의 위치에 대응하여 획득되는 데이터에 기초하여 복수의 동작 식별 모델이 마련된다. 예를 들어, 도 1을 참조하여, 전자장치(100)에 카메라가 상단의 좌측부터 상단 중앙, 상단 우측 등 설치되었을 때, 각 위치 별로 획득되는 데이터를 기초로 동작 식별 모델이 마련될 수 있다. 이 때, 동작 식별 모델은 하나의 위치에서도 촬상 각도에 따라 복수 개로 만들어 질 수 있고, 기 정의된 범위 내의 위치에 설치되는 카메라로부터 획득되는 영상에 동일한 동작 식별 모델을 적용할 수도 있다.
복수의 위치에 대응하여 획득되는 데이터란 각 위치에서 촬상한 영상데이터 뿐 아니라, 어플리케이션의 기능을 수행하기 위한 데이터, 필요에 따라 음성데이터를 포함한다. 이 때, 영상은 반드시 카메라에 의해 촬상된 것이 아닌 해당 위치에 카메라가 설치되는 경우의 가상 시뮬레이션에 의해 획득된 데이터를 이용할 수 있다. 그리고, 어플리케이션 기능을 수행하기 위한 데이터란, 어플리케이션 별로 제공하는 기능을 카메라(200)에 의해 촬상되는 영상을 통해 수행하기 위한 데이터를 의미한다. 예를 들어, 사용자의 제스처를 인식하여 기능을 수행하는 어플리케이션의 경우, 카메라(200)에 의해 촬상되는 영상과 비교하여 특정 제스처로 인식할 참조 데이터, 동일한 제스처를 여러 위치에서 인식하였을 때의 영상 데이터, 특정 위치의 소정 범위 내에서 동일한 제스처로 인식하였을 때의 데이터 등을 포함할 수 있다. 그리고, 해당 어플리케이션은 특정 위치 별 획득되는 데이터들에 기초하여 마련된 동작 식별 모델을 리소스로 이용할 수 있다.
마련된 동작 식별 모델은 해당 위치에 설치된 카메라로부터 획득된 영상을 인식하는데 이용될 수 있다. 동작 식별 모델은 이러한 데이터들을 입력 데이터로 하여 인공 신경망을 활용하여 학습한 인공 지능 모델일 수 있다. 프로세서(180)가 인공 지능 모델을 식별하는 경우, 도 2에 서술한 바와 같이 수행될 수 있으며, 이 외에도 인터페이스부(110)를 통해 서버 등 외부로부터 미리 마련된 동작 식별 모델, 미리 학습된 인공 지능 모델을 수신할 수 있다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 마련된 복수의 동작 식별 모델 중 카메라(200)가 설치된 위치에 대응하는 동작 식별 모델을 선택할 수 있다.
이 때, 프로세서(180)는 S320에서 획득된 카메라(200)가 설치된 위치를 나타내는 정보에 기초하여 해당 위치에 대응하여 마련된 동작 식별 모델을 선택할 수 있다. 예를 들어, 도 1을 기초하여, 전자장치(100)의 좌측면 상측에 카메라(200)가 설치되고, 좌측면 상측에서 촬상한 영상과 대응되는 각도의 영상 등 데이터로 마련된 동작 식별 모델을 선택할 수 있다.
이 때, 복수의 동작 식별 모델 중 카메라(200)가 설치된 위치와 대응한 위치에서 마련된 동작 식별 모델이 존재하지 않는 경우에는, 프로세서(180)는 카메라(200)가 설치된 위치와 소정 범위내의 위치에서 촬상되는 영상에 기초하여 마련된 동작 식별 모델을 식별할 수 있다. 예를 들어, 도 1을 참조하여 카메라(200)가 좌측면 상측에 설치되었으나, 그에 대응되는 위치에 설치된 것을 기반으로 마련된 동작 식별 모델은 없는 경우를 가정한다. 이 때, 좌측면 상측과 상단 좌측은 그 위치가 소정 범위 내이고, 상단 좌측에 위치된 것에 기초하여 마련된 제1동작 식별 모델이 존재하는 경우, 프로세서(180)는 제1동작 식별 모델을 선택할 수 있다.
혹은, 복수의 동작 식별 모델 중 카메라(200)가 설치된 위치와 대응한 위치에서 촬상된 영상에 기초하여 마련된 동작 식별 모델이 존재하지 않는 경우에는 도 5에서 후술하는 바와 같이 알림을 표시하여 동작 식별 모델이 마련된 위치로 카메라(200)를 이동하도록 유도하거나, 도 6에서 후술하는 바와 같이 카메라(200)로 획득된 영상을 보정하여 동작 식별 모델이 적용될 수 있다. 자세한 내용은 도 5 및 도 6에 서술한다.
본 발명의 일 실시예에 따르면, 프로세서(180)는 선택된 동작 식별 모델에 기초하여 카메라에 의해 촬상되는 영상으로부터 사용자의 동작을 식별하고, 식별된 사용자의 동작에 기초하여 기능을 수행할 수 있다(S340).
예를 들어, 제스처를 인식하여 채널 변경 등 지정된 기능을 수행하는 어플리케이션을 실행 중인 경우, 프로세서(180)는 카메라(200)가 설치된 위치에 따라 식별된 동작 식별 모델에 기초하여, 카메라(200)에 의해 촬상된 영상으로부터 사용자의 제스처를 식별할 수 있다. 프로세서(180)는 식별된 제스처에 대응하는 기능, 즉 채널 변경을 수행할 수 있다.
본 발명의 일 실시예에 따르면, 카메라의 위치에 따른 영상의 변화를 반영한 모델을 이용하여 카메라 영상에 대한 인식률을 높일 수 있다.
도 4는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 4는 도 3의 S320과 관련하여, 디스플레이에 대하여 카메라(200)가 설치될 수 있는 복수의 위치 중 카메라(200)가 설치된 위치를 나타내는 정보를 획득하는 방법 중 하나에 대해서 도시한다.
전자장치(100)는 사용자입력부(130)를 더 포함한다. 사용자입력부(130)는 도 2에 자세히 서술한 바와 같이, 디스플레이(121)의 터치 패널이나, 리모컨의 버튼 등을 포함한다. 프로세서(180)는, 카메라(200)가 설치될 수 있는 복수의 위치를 나타내는 GUI(410)를 디스플레이(121)에 표시할 수 있다. GUI(410)에 표시되는 카메라의 위치는, 도 3의 S330에서 설명한 바와 같이, 복수의 동작 식별 모델이 마련될 때 이용한 위치일 수 있다.
프로세서(180)는 GUI(410)에 표시된 복수의 위치 중에서 카메라(200)가 설치된 동일, 유사한 위치를 선택하는 사용자입력을 GUI(410)를 이용하여 수신할 수 있다. 또한, 사용자의 상황 인식을 돕기 위해, "카메라가 설치된 위치를 선택해주세요." 등의 안내 문구를 GUI(410) 내에 함께 표시할 수 있다.
다만, GUI(410)의 형식은 이에 한정되지 않고, "
Figure pat00001
", "
Figure pat00002
" 형태의 화살표를 디스플레이(121)에 표시하는 등 다양한 형태로 표시될 수 있다.
본 발명의 일 실시예에 따르면, 보다 용이하게 카메라의 위치를 식별할 수 있고, 사용자의 편의를 높일 수 있다.
도 5는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 5는, 도 3의 S330과 관련하여, 카메라의 위치를 변경하도록 안내하는 방법 중 하나에 대해서 도시한다.
본 발명의 경우, 카메라(200)가 설치될 수 있는 모든 위치에 대하여 동작 식별 모델을 마련하는 것이 현실적으로 곤란할 수 있다. 따라서, 프로세서(180)는, 복수의 동작 식별 모델 중 카메라(200)가 설치된 위치에 대응하는 동작 식별 모델이 마련되지 않은 것에 기초하여, 카메라(200)의 위치의 변경을 안내하는 알림(510)을 디스플레이(121)에 표시할 수 있다. 이 때, 알림(510)에는 현재 카메라(200)가 표시된 위치(520)와, 위치(520) 주변에 동작 식별 모델이 마련되어 있는 위치(530)로 이동하도록 안내하는 화살표를 표시할 수 있다.
알림(510)에 점선으로 표시되는 복수의 카메라의 위치는, 도 3의 S330에서 설명한 바와 같이, 복수의 동작 식별 모델이 마련될 때 이용한 위치를 GUI(410)에 표시할 수 있다.
마찬가지로, 사용자의 상황 인식을 돕기 위해, "보다 나은 인식을 위하여 카메라 위치를 변경해 주세요." 등의 안내 문구를 GUI(410) 내에 함께 표시할 수 있다.
본 발명의 일 실시예에 따르면, 미리 마련된 동작 식별 모델이 기초한 카메라의 위치에 대응되도록 변경함으로써, 동작 인식률을 높일 수 있다. 또한, 이 경우 새로운 동작 식별 모델 마련 등 번거로운 절차 없이도 동작 인식률을 높일 수 있으므로 효율적이다.
도 6은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 6은 사용자가 운동 코칭 어플리케이션을 이용하는 경우의 전자장치(100)의 동작 모습을 도시한다. 구체적으로, 도 3의 S330과 관련하여, 미리 마련된 동작 식별 모델을 적용하기 위해 카메라(200)에 의해 촬상된 영상을 보정하여 적용하는 방법에 대해서 도시한다.
도 6을 참조하면, 전자장치(100)와 연결된 제1카메라(200)가 전자장치(100)의 중앙에 위치해 있고, 전자장치(100)는 제1카메라(200)에 의해 촬상된 제1영상(610)과 운동 코칭 어플리케이션에 미리 마련된 샘플 영상인 제2영상(620)을 표시하고 있다. 사용자는 제2영상(620)에 표시되는 모델의 운동 동작을 따라하면서 운동할 수 있고, 전자장치(100)는 사용자의 운동 동작의 횟수를 세거나, 정확도를 판단하는 등의 서비스를 제공할 수 있다.
본 발명의 경우, 앞서 도 5에서 설명한 바와 같이, 카메라(200)가 설치될 수 있는 모든 위치에 대하여 동작 식별 모델을 마련하는 것이 현실적으로 곤란할 수 있다.
먼저, 프로세서(180)는, 복수의 동작 식별 모델 중 카메라(200)의 위치와 소정 범위 내의 위치에서 촬상되는 영상에 기초하여 마련된 동작 식별 모델을 선택할 수 있다. 또는, 프로세서(180)는 복수의 동작 식별 모델 중 카메라(200)의 촬상 각도와 소정 범위 내의 촬상 각도로 촬상되는 영상에 기초하여 마련된 동작 식별 모델을 선택할 수 있다.
예를 들어, 복수의 동작 식별 모델 중 제1카메라(200)와 근접한 위치에 있는 제2카메라(600)에 의해 촬상된 제2영상(620)에 기초하여 동작 식별 모델이 마련되어 있다고 가정한다. 제1카메라(200)의 위치와 소정 범위 내의 위치에 제2카메라(600)가 설치된 경우, 프로세서(180)는 제2카메라(600)에 의해 촬상되는 제2영상에 기초하여 마련된 동작 식별 모델을 선택할 수 있다. 또는, 제1카메라(200)의 촬상 각도와 제2카메라(600)에 의해 촬상된 제2영상(620)의 촬상 각도가 소정 범위 내의 각도를 가지는 경우, 프로세서(180)는 제2카메라(600)에 의해 촬상되는 제2영상(620)에 기초하여 마련된 동작 식별 모델을 선택할 수 있다.
그리고, 프로세서(180)는 카메라(200)에 의해 촬상되는 제1영상(610)을 제2영상(620)에 대응하도록 보정할 수 있다. 보정하는 기법은 다양하게 존재할 수 있는데, 일 예로, 2D 영상의 다중 프레임을 이용하여 영상의 깊이정보를 추출한 뒤 추출된 깊이정보를 기반으로 3D 입체 영상을 생성하여 보정할 수 있다. 생성된 3D 입체 영상은 다시 객체를 특정 각도로 회전시키는 변환 행렬을 이용하여 동작 식별 모델의 참조 데이터에 대응하도록 보정할 수 있다. 상기 프로세서(180)는 제1영상(610)을 제2영상(620)에 대응하도록 보정하여 제3영상(630)을 획득한다.
프로세서(180)는 선택된 동작 식별 모델에 기초하여 보정된 제3영상(630)으로부터 사용자의 동작을 식별할 수 있다. 따라서, 프로세서(180)는 보정된 제3영상(630)에 기초하여 운동 횟수나 운동의 정확도를 판단하므로 판단의 신뢰성이 높아진다.
이 때, 디스플레이(121)에는 자연스러운 영상 표시 및 사용자의 편의를 위해 제1영상(610)이 표시될 수 있으나, 사용자의 설정이나 제조사의 설정에 따라 보정된 제3영상(630)이 표시될 수 있다.
다만, 본 실시예에서 디스플레이(121)에 표시되는 샘플 영상이 반드시 동작 식별 모델을 마련하기 위한 데이터로서의 제2영상과 동일할 필요는 없으며, 샘플 영상은 제2영상과 동일한 각도를 가지도록 별도로 제작되어 표시될 수 있다. 샘플 영상은 도 7에서 후술하는 컨텐츠와 동일할 수 있다.
본 발명의 일 실시예에 따르면, 미리 마련된 동작 식별 모델이 기초한 영상 데이터에 대응되도록 촬상되는 영상을 변경함으로써, 동작 인식률을 높일 수 있다. 또한, 이 경우 새로운 동작 식별 모델 마련 등 번거로운 절차 없이도 동작 인식률을 높일 수 있으므로 효율적이다.
도 7은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 7에서는 카메라(200)에 의해 촬상된 영상과 미리 마련된 복수의 컨텐츠 중 카메라(200)에 의해 촬상된 영상과 대응되는 컨텐츠를 표시하는 모습을 도시한다.
프로세서(180)는, 서로 다른 위치에서 촬상된 복수의 컨텐츠 중 카메라(200)가 설치된 위치에 대응되는 위치에서 촬상된 컨텐츠를 식별하고, 식별된 컨텐츠를 디스플레이(121)에 표시할 수 있다. 또는, 프로세서(180)는, 서로 다른 촬상 각도로 촬상된 복수의 컨텐츠 중 카메라(200)의 촬상 각도에 대응하는 촬상 각도로 촬상된 컨텐츠를 식별하고, 식별된 컨텐츠를 디스플레이(121)에 표시할 수 있다. 이 때, 서로 다른 위치 또는 각도에서 촬상된 복수의 컨텐츠란 동일한 내용의 컨텐츠를 카메라가 설치될 수 있는 복수의 위치 또는 복수의 각도에서 촬상된 컨텐츠이다. 일 예로, 운동 코칭 어플리케이션을 실행하는 경우, 사용자가 운동 동작을 쉽게 따라할 수 있도록 사용자가 표시되는 영상과 동일한 위치 또는 각도에 대응하는 코칭 영상을 컨텐츠로써 표시할 수 있다. 복수의 컨텐츠는 미리 마련되어 저장부(140)에 저장되거나 외부로부터 수신할 수 있다.
프로세서(180)는, 복수의 컨텐츠 중 식별된 컨텐츠와 카메라(200)가 촬상하는 영상을 함께 디스플레이(121)에 표시할 수 있다.
도 7을 참조하면, 전자장치(100)는 벽의 일정 높이에 설치된 TV로 가정하고, 도 7의 실시예 1(701)은 카메라(200)가 상단 우측에, 도 7의 실시예 2(702)는 하단 우측에 설치된다.
도 7의 실시예 1(701)에서 제1영상(710)은 카메라(200)가 상단 우측에 위치하여 촬상된 영상이다. 프로세서(180)는 미리 마련된 복수의 컨텐츠 중 카메라(200)와 대응되는 위치에서 촬상된 제1컨텐츠(720)를 식별하고, 식별된 제1컨텐츠(720)를 디스플레이(121)에 표시할 수 있다. 또는, 도 7의 실시예 1(701)에서 카메라(200)에 의해 촬상된 제1영상(710)은 상단 우측에서 살짝 비스듬한 각도로 촬상된 영상이다. 프로세서(180)는 미리 마련된 복수의 컨텐츠 중 제1영상(710)이 촬상된 각도와 대응되는 각도에서 촬상된 제1컨텐츠(720)를 식별하고, 식별된 제1컨텐츠(720)를 디스플레이(121)에 표시할 수 있다.
도 7의 실시예 2(702)에서 제2영상(730)은 카메라(200)가 하단 우측에 위치하여 촬상된 영상이다. 프로세서(180)는 미리 마련된 복수의 컨텐츠 중 카메라(200)와 대응되는 위치에서 촬상된 제2컨텐츠(740)를 식별하고, 식별된 제2컨텐츠(740)를 디스플레이(121)에 표시할 수 있다. 또는, 도 7의 실시예 2(702)에서 카메라(200)에 의해 촬상된 제2영상(730)은 하단 우측에서 정면을 향하는 각도로 촬상된 영상이다. 제2영상(730)은 카메라(200)가 하단 우측에 설치되었으나, 벽의 일정 높이에 전자장치(100)가 설치되었으므로, 카메라(200)에 의해 촬상된 영상은 중간 높이에서 촬상된 영상으로 볼 수 있다. 따라서, 촬상된 사람의 모습이 정면에서 촬상한 것처럼 표시된다. 프로세서(180)는 미리 마련된 복수의 컨텐츠 중 제2영상(730)이 촬영된 각도와 대응되는 각도에서 촬상된 제2컨텐츠(740)를 식별하고, 식별된 제2컨텐츠(740)를 디스플레이(121)에 표시할 수 있다.
프로세서(180)는 미리 마련된 복수의 컨텐츠 중 제1영상(710)이 촬영된 각도와 대응되는 각도에서 촬상된 컨텐츠(720)를 식별하고, 식별된 컨텐츠(720)를 디스플레이(121)에 표시할 수 있다.
이 때, 프로세서(180)는 S320에서 획득된 카메라(200)가 설치된 위치를 나타내는 정보에 기초하여 해당 위치에 대응하여 마련된 컨텐츠를 식별할 수 있다. 예를 들어, 도 1을 기초하여, 전자장치(100)의 좌측면 상측에 카메라(200)가 설치되고, 좌측면 상측에서 촬상한 영상과 대응되는 각도의 컨텐츠를 식별할 수 있다.
이 때, 복수의 컨텐츠 중 카메라(200)가 설치된 위치와 대응한 위치에서 마련된 컨텐츠가 존재하지 않는 경우에는, 프로세서(180)는 카메라(200)가 설치된 위치와 소정 범위에서 대응하는 위치에서 마련된 컨텐츠를 식별할 수 있다. 예를 들어, 도 1을 참조하여 카메라(200)가 좌측면 상측에 설치되었으나, 그에 대응되는 위치에 설치된 것을 기반으로 마련된 컨텐츠는 없는 경우를 가정한다. 이 때, 좌측면 상측과 상단 좌측은 그 위치가 소정 범위 내이고, 상단 좌측에 위치된 것에 기초하여 마련된 제1컨텐츠가 존재하는 경우, 프로세서(180)는 제1컨텐츠를 식별할 수 있다. 이는 촬상 각도에 대하여도 마찬가지로 적용된다.
혹은, 복수의 컨텐츠 중 카메라(200)가 설치된 위치와 대응한 위치에서 마련된 컨텐츠 존재하지 않는 경우에는 도 5에서 상술한 바와 같이 알림을 표시하여 컨텐츠가 마련된 위치로 카메라(200)를 이동하도록 유도할 수 있다.
본 발명의 일 실시예에 따르면, 미리 마련된 복수의 컨텐츠를 이용하여 사용자가 어플리케이션의 기능을 유용하게 사용할 수 있어, 사용자의 장치 이용에 만족감 및 편의성을 제공한다.
도 8은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 8은 도 3의 S320과 관련하여, 영상통화 어플리케이션을 실행하는 경우, 카메라의 위치에 따라 GUI를 달리 적용하는 모습을 도시한다.
영상통화 어플리케이션을 실행하는 경우, 카메라(200)와 상대방 모습을 표시한 윈도우의 상대적인 위치가 올바르게 정렬되지 않으면, 상대방의 시선과 전자장치(100) 사용자의 시선이 서로 다른 곳을 향하게 되어 영상통화 사용자에게 불편함을 초래할 수 있다.
프로세서(180)는 디스플레이(121)에 대하여 카메라가 설치될 수 있는 복수의 위치 중 카메라(200)가 설치된 위치를 나타내는 정보를 획득할 수 있다. 프로세서(180)는, 획득된 정보에 기초하여 영상통화와 관련된 GUI(Graphic User Interface)를 표시할 디스플레이(121)의 일 영역을 식별할 수 있다. 일 영역은, 예를 들어, 카메라를 향한 시선과 상대방을 향한 시선 간의 불일치를 최소화 하는 영역일 수 있다. 따라서, 디스플레이(121)상에서 카메라(200)가 설치된 것으로 식별되는 위치와 근접한 곳에 GUI를 표시할 수 있다. 본 발명의 일 실시예에 따른 GUI는 영상통화 윈도우를 포함한다.
예를 들어, 도 8 의 실시예 1(801)에서 카메라(200)가 상단에 위치한 경우, 프로세서(180)는 디스플레이(121)의 카메라(200)가 위치한 바로 아래 영역에 상대방의 영상통화 윈도우(810)를 표시하고, 카메라(200)가 하단에 위치한 경우, 디스플레이(121)의 카메라(200)가 위치한 바로 위 영역에 상대방의 영상통화 윈도우(820)를 표시할 수 있다. 이 때, 프로세서(180)는 영상통화를 수신/발신하기 전 표시되고 있던 영상(840)을 중첩하여 표시할 수 있다.
또한, 도 8의 실시예 2(802)와 같이 디스플레이(121)를 크게 두 영역으로 나누어 영상통화 윈도우(830)와 기존 표시되고 있던 영상(840)를 함께 표시하고자 하는 경우, 프로세서(180)는 카메라(200)와 더 가까운 영역에 영상통화 윈도우(830)를 표시할 수 있다.
본 발명의 일 실시예에 따르면, 화면에 표시하는 사용자 인터페이스와 그 동작을 달리함으로써, 디스플레이와 카메라의 상대적 위치에 따른 시선 불일치의 불편함을 감소시킬 수 있다.
도 9는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 9는 도 8의 실시예에 이어서 사용자에게 좀 더 편리함을 제공하기 위해 고안된 실시예를 도시한다. 영상통화가 수신/발신되는 경우, 도 8과 마찬가지로 프로세서(180)는 카메라(200)가 설치된 위치에 기초하여 영상통화와 관련된 GUI(Graphic User Interface)를 표시할 디스플레이(121)의 일 영역을 식별할 수 있다.
본 발명의 일 실시예에 따른 GUI는 영상통화 윈도우, 영상통화 윈도우 애니메이션, 영상통화 수/발신 알림, 및 영상통화 수/발신 알림 애니메이션 중 적어도 하나를 포함할 수 있다.
도 9의 실시예 1(901)에서 프로세서(180)는 영상통화를 수신 또는 발신할 때, 식별한 일 영역에 영상통화 수/발신 알림 애니메이션(911)을 표시하여 사용자의 시선이 자연스럽게 카메라를 향하도록 유도할 수 있다. 또한 도 9의 실시예 2(902)와 같이 식별한 일 영역에 영상통화 윈도우가 미끄러져 나오거나 들어가는 영상통화 윈도우 애니메이션(912)을 표시하여 사용자의 상황 이해를 용이하게 할 수 있다. 도 9의 실시예 2(902)에서 영상통화 윈도우 애니메이션(912)이 완전히 미끄러져 나오게 되는 경우, 도 9의 실시예 3(903)과 같이 영상통화 윈도우(913)가 표시될 수 있다. 이 때, 프로세서(180)는 영상통화를 수신/발신하기 전 표시되고 있던 영상(840)을 중첩하여 표시할 수 있음은 마찬가지이다.
본 발명의 일 실시예에 따르면, 화면에 표시하는 다양한 사용자 인터페이스 및 동작을 통해 사용자에게 더욱 편리함을 제공할 수 있다.
도 10은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
본 실시예에서는 카메라의 위치에 따라 디스플레이(121)에 표시되는 영상뿐 아니라 음향출력에도 적용할 수 있음을 나타낸다.
전자장치(100)는 영상통화와 관련된 음성의 복수의 출력 방향을 가지는 스피커(160)를 더 포함할 수 있다. 스피커(160)와 관련하여는 앞서 도 2에서 자세히 서술한 바와 같다. 이 때, 스피커는 전자장치에 내장된 스피커(160) 뿐 아니라, 인터페이스부(110)를 통해 연결된 외부 스피커일 수 있다.
프로세서(180)는 스피커(160)의 복수의 출력 방향 중 일 영역에 근접한 방향으로 음성을 출력하도록 스피커를 제어할 수 있다.
예를 들어, 도 10에 도시된 바와 같이, 전자장치(100) 주변에 여러 위치에 스피커(161, 162,163)가 설치될 수 있다. 프로세서(180)는 카메라(200)가 설치된 위치를 나타내는 정보를 획득하고, 획득된 정보에 기초하여 스피커(160)의 복수의 출력 방향 중 카메라가 설치된 위치에 근접한 위치에 설치된 스피커(161)에서 음성을 출력하도록 스피커를 제어할 수 있다. 이 때, 스피커(161)에서 음성을 출력하도록 하거나, 전체적인 음향의 밸런스를 스피커(161) 중심으로 맞추는 등 다양하게 적용할 수 있다. 도 8 및 도 9에서 설명한 바와 같이, 카메라(200)가 설치된 것으로 식별된 위치에 GUI가 표시되는 경우, 사용자의 시선 뿐 아니라 사용자의 청각도 그 방향을 향해 집중될 수 있도록 도와줄 수 있다.
본 발명의 일 실시예에 따르면, 사용자의 시각적 편리함 이외에도 청각적 편리함을 제공하여 더욱 완성도 높은 서비스를 제공할 수 있다.
100: 전자장치
110: 인터페이스부
120: 디스플레이부
130: 사용자입력부
140: 저장부
150: 마이크로폰
160: 스피커
170: 센서
180: 프로세서
200: 카메라

Claims (20)

  1. 전자장치에 있어서,
    인터페이스부;
    디스플레이; 및
    상기 인터페이스부를 통해 연결된 카메라에 의해 촬상되는 영상을 획득하고,
    상기 디스플레이에 대하여 상기 카메라가 설치될 수 있는 복수의 위치 중 상기 카메라가 설치된 위치를 나타내는 정보를 획득하고,
    상기 복수의 위치에 대응하는 데이터에 기초하여 마련된 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델을 선택하고,
    상기 선택된 동작 식별 모델에 기초하여 상기 카메라에 의해 촬상되는 영상으로부터 사용자의 동작을 식별하고,
    상기 식별된 사용자의 동작에 기초하여 기능을 수행하는 프로세서를 포함하는 전자장치.
  2. 제1항에 있어서,
    사용자입력부를 더 포함하고,
    상기 프로세서는,
    상기 카메라가 설치될 수 있는 복수의 위치를 나타내는 GUI를 상기 디스플레이에 표시하고,
    상기 카메라가 설치되는 위치를 선택하는 사용자입력을 상기 GUI를 이용하여 수신하는 전자장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델이 마련되지 않은 것에 기초하여, 상기 카메라의 위치의 변경을 안내하는 알림을 상기 디스플레이에 표시하는 전자장치.
  4. 제1항에 있어서,
    상기 카메라에 의해 촬상되는 영상은 제1영상이고,
    상기 프로세서는,
    상기 복수의 동작 식별 모델 중 상기 카메라의 위치와 소정 범위 내의 위치에서 촬상되는 제2영상에 기초하여 마련된 동작 식별 모델을 선택하고,
    상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하고,
    상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별하는 전자장치.
  5. 제1항에 있어서,
    상기 카메라에 의해 촬상되는 영상은 제1영상이고,
    상기 프로세서는,
    상기 복수의 동작 식별 모델 중 상기 카메라의 촬상 각도와 소정 범위 내의 촬상 각도로 촬상된 제2 영상에 기초하여 마련된 동작 식별 모델을 선택하고,
    상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하고,
    상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별하는 전자장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    서로 다른 위치에서 촬상된 복수의 컨텐츠 중 상기 카메라가 설치된 위치에 대응되는 위치에서 촬상된 컨텐츠를 식별하고,
    상기 식별된 컨텐츠를 상기 디스플레이에 표시하는 전자장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    서로 다른 촬상 각도로 촬상된 복수의 컨텐츠 중 상기 카메라의 촬상 각도에 대응하는 촬상 각도로 촬상된 컨텐츠를 식별하고,
    상기 식별된 컨텐츠를 상기 디스플레이에 표시하는 전자장치.
  8. 제5항에 있어서,
    상기 프로세서는, 상기 식별된 컨텐츠와 상기 카메라가 촬상하는 영상을 함께 상기 디스플레이에 표시하는 전자장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 획득된 정보에 기초하여 영상통화와 관련된 GUI(Graphic User Interface)를 표시할 상기 디스플레이의 일 영역을 식별하고,
    상기 일 영역에 상기 GUI를 표시하는 전자장치.
  10. 제5항에 있어서,
    상기 GUI는 영상통화 윈도우, 영상통화 윈도우 애니메이션, 영상통화 수/발신 알림, 및 영상통화 수/발신 알림 애니메이션 중 적어도 하나를 포함하는 전자장치.
  11. 제7항에 있어서,
    영상통화와 관련된 음성의 복수의 출력 방향을 가지는 스피커를 더 포함하고,
    상기 프로세서는,
    복수의 출력 방향 중 상기 일 영역에 근접한 방향으로 상기 음성을 출력하도록 상기 스피커를 제어하는 전자장치.
  12. 전자장치의 제어방법에 있어서,
    인터페이스부를 통해 연결된 카메라에 의해 촬상되는 영상을 획득하는 단계;
    디스플레이에 대하여 상기 카메라가 설치될 수 있는 복수의 위치 중 상기 카메라가 설치된 위치를 나타내는 정보를 획득하는 단계;
    상기 복수의 위치에 대응하는 데이터에 기초하여 마련된 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델을 선택하는 단계;
    상기 선택된 동작 식별 모델에 기초하여 상기 카메라에 의해 촬상되는 영상으로부터 사용자의 동작을 식별하는 단계; 및
    상기 식별된 사용자의 동작에 기초하여 기능을 수행하는 단계를 포함하는 전자장치의 제어방법.
  13. 제12항에 있어서,
    상기 카메라가 설치된 위치를 나타내는 정보를 획득하는 단계는,
    상기 카메라가 설치될 수 있는 복수의 위치를 나타내는 GUI를 상기 디스플레이에 표시하는 단계; 및
    상기 카메라가 설치되는 위치를 선택하는 사용자입력을 상기 GUI를 이용하여 수신하는 단계를 포함하는 전자장치의 제어방법.
  14. 제12항에 있어서,
    상기 복수의 동작 식별 모델 중 상기 카메라가 설치된 위치에 대응하는 동작 식별 모델이 마련되지 않은 것에 기초하여, 상기 카메라의 위치의 변경을 안내하는 알림을 상기 디스플레이에 표시하는 단계를 포함하는 전자장치의 제어방법.
  15. 제12항에 있어서,
    상기 카메라에 의해 촬상되는 영상은 제1영상이고,
    상기 동작 식별 모델을 선택하는 단계는,
    상기 복수의 동작 식별 모델 중 상기 카메라의 위치와 소정 범위 내의 위치에서 촬상되는 제2영상에 기초하여 마련된 동작 식별 모델을 선택하는 단계를 포함하고,
    상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하는 단계; 및
    상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별하는 단계를 더 포함하는 전자장치의 제어방법.
  16. 제12항에 있어서,
    상기 카메라에 의해 촬상되는 영상은 제1영상이고,
    상기 동작 식별 모델을 선택하는 단계는,
    상기 복수의 동작 식별 모델 중 상기 카메라의 촬상 각도와 소정 범위 내의 촬상 각도로 촬상된 제2영상에 기초하여 마련된 동작 식별 모델을 선택하는 단계를 포함하고,
    상기 제1영상을 상기 제2영상에 대응하도록 보정하여 제3영상을 획득하는 단계;
    상기 선택된 동작 식별 모델에 기초하여 상기 제3영상으로부터 상기 사용자의 동작을 식별하는 단계를 더 포함하는 전자장치의 제어방법.
  17. 제12항에 있어서,
    서로 다른 위치에서 촬상된 복수의 컨텐츠 중 상기 카메라가 설치된 위치에 대응되는 위치에서 촬상된 컨텐츠를 식별하는 단계; 및
    상기 식별된 컨텐츠를 상기 디스플레이에 표시하는 단계를 포함하는 전자장치의 제어방법.
  18. 제12항에 있어서,
    서로 다른 촬상 각도로 촬상된 복수의 컨텐츠 중 상기 카메라의 촬상 각도에 대응하는 촬상 각도로 촬상된 컨텐츠를 식별하는 단계; 및
    상기 식별된 컨텐츠를 상기 디스플레이에 표시하는 단계를 포함하는 전자장치의 제어방법.
  19. 제12항에 있어서,
    상기 획득된 정보에 기초하여 영상통화와 관련된 GUI(Graphic User Interface)를 표시할 상기 디스플레이의 일 영역을 식별하는 단계; 및
    상기 일 영역에 상기 GUI를 표시하는 단계를 포함하는 전자장치의 제어방법.
  20. 제18항에 있어서,
    상기 GUI는 영상통화 윈도우, 영상통화 윈도우 애니메이션, 영상통화 수/발신 알림, 및 영상통화 수/발신 알림 애니메이션 중 적어도 하나를 포함하는 전자장치의 제어방법.
KR1020210072712A 2021-06-04 2021-06-04 전자장치 및 그 제어방법 KR20220164222A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020210072712A KR20220164222A (ko) 2021-06-04 2021-06-04 전자장치 및 그 제어방법
PCT/KR2022/007496 WO2022255730A1 (ko) 2021-06-04 2022-05-26 전자장치 및 그 제어방법
US18/527,534 US20240121501A1 (en) 2021-06-04 2023-12-04 Electronic apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072712A KR20220164222A (ko) 2021-06-04 2021-06-04 전자장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20220164222A true KR20220164222A (ko) 2022-12-13

Family

ID=84323361

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072712A KR20220164222A (ko) 2021-06-04 2021-06-04 전자장치 및 그 제어방법

Country Status (3)

Country Link
US (1) US20240121501A1 (ko)
KR (1) KR20220164222A (ko)
WO (1) WO2022255730A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8390665B2 (en) * 2009-09-03 2013-03-05 Samsung Electronics Co., Ltd. Apparatus, system and method for video call
CN108322653B (zh) * 2012-06-12 2020-11-13 奥林巴斯株式会社 摄像装置
KR20150084524A (ko) * 2014-01-14 2015-07-22 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
KR200492987Y1 (ko) * 2016-04-21 2021-01-13 한국전자통신연구원 카메라 위치 교정을 위한 탈착식 입력장치
CN113518148A (zh) * 2019-05-06 2021-10-19 苹果公司 用于捕获和管理视觉媒体的用户界面

Also Published As

Publication number Publication date
WO2022255730A1 (ko) 2022-12-08
US20240121501A1 (en) 2024-04-11

Similar Documents

Publication Publication Date Title
CN113016189B (zh) 识别音频场景的电子设备和方法
CN108594997B (zh) 手势骨架构建方法、装置、设备及存储介质
CN109361865B (zh) 一种拍摄方法及终端
CN108399349B (zh) 图像识别方法及装置
CN108377422B (zh) 一种多媒体内容的播放控制方法、装置及存储介质
CN108848313B (zh) 一种多人拍照方法、终端和存储介质
CN108848309B (zh) 一种相机程序启动方法及移动终端
CN113038165B (zh) 确定编码参数组的方法、设备及存储介质
CN109246351B (zh) 一种构图方法及终端设备
CN111027490A (zh) 人脸属性识别方法及装置、存储介质
CN111083386B (zh) 图像处理方法及电子设备
CN109639981B (zh) 一种图像拍摄方法及移动终端
KR101784095B1 (ko) 복수의 영상 데이터를 이용하는 헤드 마운트 디스플레이 장치 및 복수의 영상 데이터를 송수신하기 위한 시스템
CN111401283A (zh) 面部识别方法及装置、电子设备及存储介质
KR20220164222A (ko) 전자장치 및 그 제어방법
WO2021256760A1 (ko) 이동 가능한 전자장치 및 그 제어방법
CN109257543B (zh) 拍摄模式控制方法及移动终端
WO2021112391A1 (ko) 전자장치 및 그 제어방법
CN111310701B (zh) 手势识别方法、装置、设备及存储介质
KR20220065370A (ko) 전자장치 및 그 제어방법
KR20220015306A (ko) 전자장치 및 그 제어방법
CN109729269B (zh) 一种图像处理方法、终端设备及计算机可读存储介质
KR20120074484A (ko) 이미지 센서를 이용하는 멀티미디어 디바이스 및 그 제어 방법
KR20220032867A (ko) 전자장치 및 그 제어방법
KR102574730B1 (ko) Ar 글라스를 이용한 증강 현실 화면 및 리모컨 제공 방법 및 그를 위한 장치 및 시스템

Legal Events

Date Code Title Description
A201 Request for examination