KR20240037808A - 사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법 - Google Patents

사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20240037808A
KR20240037808A KR1020230004884A KR20230004884A KR20240037808A KR 20240037808 A KR20240037808 A KR 20240037808A KR 1020230004884 A KR1020230004884 A KR 1020230004884A KR 20230004884 A KR20230004884 A KR 20230004884A KR 20240037808 A KR20240037808 A KR 20240037808A
Authority
KR
South Korea
Prior art keywords
user
posture
display
electronic device
processor
Prior art date
Application number
KR1020230004884A
Other languages
English (en)
Inventor
김미영
김태형
박혜림
박준아
김창섭
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/008415 priority Critical patent/WO2024058364A1/ko
Priority to US18/226,053 priority patent/US20240094803A1/en
Publication of KR20240037808A publication Critical patent/KR20240037808A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 카메라, 구동부, 디스플레이 및 카메라, 구동부 및 디스플레이에 연결되어 전자 장치를 제어하는 적어도 하나의 프로세서를 포함하며, 프로세서는 카메라를 통해 이미지를 촬영하고, 촬영된 이미지에 포함된 사용자의 자세를 식별하고, 사용자의 자세에 기초하여 사용자와 관련된 복수의 파라미터 중 적어도 하나의 파라미터를 식별하고, 적어도 하나의 파라미터에 기초하여 전자 장치의 위치를 변경하도록 구동부를 제어하고, 디스플레이의 자세를 변경할 수 있다.

Description

사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법 { ELECTRONIC APPARATUS FOR PROVIDING A SCREEN IN A POSTURE OPTIMIZED FOR A USER AND CONTROL METHOD THEREOF }
본 개시는 전자 장치 및 그 제어 방법에 대한 것으로, 더욱 상세하게는 사용자에게 최적화된 자세로 화면을 제공하는 전자 장치 및 그 제어 방법에 대한 것이다.
전자 기술의 발달에 따라 다양한 기능을 제공하는 전자 장치가 개발되고 있다. 특히, 최근에는 전자 장치의 소형화 등으로 거실이 아닌 기타 다양한 장소에서 컨텐츠를 소비할 수 있는 환경이 조성되고 있다.
예를 들어, 사용자는 소파, 침대 등에서 편안한 자세로 디스플레이를 손으로 들지 않고 사용하고자 하며, 이를 위해 도 1a에 도시된 바와 같이, 원하는 높이, 각도를 수동으로 조절할 수 있는 스마트폰/태블릿 거치대가 보급되고 있다.
다만, 도 1b에 도시된 바와 같이, 거치대의 경우 공간마다 사용자가 직접 이동시켜야 하고 자세가 바뀔 때 마다 직접 각도를 조절해야 하며, 거치 가능한 디스플레이의 사이즈에 한계가 있는 문제가 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 전자 장치는 카메라, 구동부, 디스플레이 및 상기 카메라, 상기 구동부 및 상기 디스플레이에 연결되어 상기 전자 장치를 제어하는 적어도 하나의 프로세서를 포함하며, 상기 프로세서는 상기 카메라를 통해 이미지를 촬영하고, 상기 촬영된 이미지에 포함된 사용자의 자세를 식별하고, 상기 사용자의 자세에 기초하여 상기 사용자와 관련된 복수의 파라미터 중 적어도 하나의 파라미터를 식별하고, 상기 적어도 하나의 파라미터에 기초하여 상기 전자 장치의 위치를 변경하도록 상기 구동부를 제어하고, 상기 디스플레이의 자세를 변경할 수 있다.
또한, 통신 인터페이스 및 마이크를 더 포함하며, 상기 프로세서는 상기 통신 인터페이스를 통해 타 전자 장치로부터 상기 전자 장치를 호출하는 사용자 명령이 수신되거나, 상기 마이크를 통해 상기 전자 장치를 호출하는 사용자 음성이 수신되면, 상기 사용자 명령 또는 상기 사용자 음성에 기초하여 상기 사용자를 향해 이동하도록 상기 구동부를 제어하고, 상기 카메라를 턴 온시켜 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득할 수 있다.
그리고, 상기 프로세서는 상기 복수의 이미지에 기초하여 상기 사용자의 자세 및 상기 사용자와의 거리를 식별하고, 상기 사용자와의 거리가 상기 사용자의 자세에 대응되는 거리이면, 상기 구동부의 동작을 정지할 수 있다.
또한, 상기 프로세서는 상기 촬영된 이미지에 기초하여 상기 사용자와 관련된 복수의 파라미터를 식별하고, 상기 복수의 파라미터에 기초하여 상기 사용자의 자세를 식별하고, 상기 사용자의 자세가 제1 자세이면 상기 복수의 파라미터 중 적어도 하나의 제1 파라미터에 기초하여 상기 디스플레이의 자세를 변경하고, 상기 사용자의 자세가 제2 자세이면 상기 복수의 파라미터 중 적어도 하나의 제2 파라미터에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
그리고, 상기 프로세서는 컨텐츠를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 컨텐츠의 타입 및 상기 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 상기 프로세서는 상기 사용자의 자세가 변경되고 기설정된 시간이 경과하면, 상기 변경된 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
그리고, 상기 프로세서는 상기 카메라를 통해 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하고, 상기 복수의 이미지에 기초하여 현재 시점으로부터 기설정된 시점에서의 상기 사용자의 예측 자세를 획득하고, 상기 사용자의 자세 및 상기 사용자의 예측 자세에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 제1 신경망 모델이 저장된 메모리를 더 포함하며, 상기 프로세서는 상기 촬영된 이미지를 상기 제1 신경망 모델에 입력하여 상기 사용자의 자세를 식별할 수 있다.
그리고, 제2 신경망 모델이 저장된 메모리를 더 포함하며, 상기 프로세서는 상기 복수의 파라미터를 상기 제2 신경망 모델에 입력하여 상기 디스플레이의 자세에 대한 정보를 획득하고, 상기 디스플레이의 자세에 대한 정보에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 사용자 인터페이스를 더 포함하며, 상기 프로세서는 상기 사용자 인터페이스를 통해 상기 디스플레이의 자세를 변경하는 사용자 명령이 수신되면, 상기 사용자 명령에 기초하여 상기 디스플레이의 자세를 변경하고, 상기 복수의 파라미터 및 상기 변경된 디스플레이의 자세에 기초하여 상기 제2 신경망 모델을 업데이트할 수 있다.
그리고, 마이크를 더 포함하며, 상기 프로세서는 상기 카메라를 통해 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하고, 상기 복수의 이미지로부터 기설정된 사용자의 제스처가 식별되거나 상기 마이크를 통해 상기 디스플레이의 자세를 변경하는 사용자 음성이 수신되면, 상기 제스처 또는 상기 사용자 음성에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 상기 카메라는 상기 디스플레이의 일측에 배치되고, 상기 프로세서는 상기 사용자 또는 상기 사용자의 기설정된 신체가 상기 촬영된 이미지에서 기설정된 영역 내에 포함되도록 상기 디스플레이의 자세를 변경할 수 있다.
그리고, 디스플레이 자세 구동부를 더 포함하며, 상기 프로세서는 상기 디스플레이의 자세를 변경하도록 상기 디스플레이 자세 구동부를 제어할 수 있다.
또한, 상기 프로세서는 상기 사용자의 자세 및 상기 사용자의 위치 이동에 기초하여 상기 전자 장치의 위치를 변경하도록 상기 구동부를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따르면, 이미지를 촬영하는 단계, 상기 촬영된 이미지에 포함된 사용자의 자세를 식별하는 단계 및 상기 사용자의 자세에 기초하여 상기 사용자와 관련된 복수의 파라미터 중 적어도 하나의 파라미터를 식별하는 단계 및 상기 적어도 하나의 파라미터에 기초하여 상기 전자 장치의 위치를 변경하고, 상기 전자 장치에 포함된 디스플레이의 자세를 변경하는 단계를 포함한다.
또한, 타 전자 장치로부터 상기 전자 장치를 호출하는 사용자 명령이 수신되거나, 상기 전자 장치에 포함된 마이크를 통해 상기 전자 장치를 호출하는 사용자 음성이 수신되면, 상기 사용자 명령 또는 상기 사용자 음성에 기초하여 상기 사용자를 향해 이동하는 단계를 더 포함하고, 상기 촬영하는 단계는 상기 전자 장치에 포함된 카메라를 턴 온시켜 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득할 수 있다.
그리고, 상기 디스플레이의 자세를 변경하는 단계는 상기 복수의 이미지에 기초하여 상기 사용자의 자세 및 상기 사용자와의 거리를 식별하고, 상기 사용자와의 거리가 상기 사용자의 자세에 대응되는 거리이면, 상기 전자 장치의 위치 변경을 정지할 수 있다.
또한, 상기 사용자의 자세를 식별하는 단계는 상기 촬영된 이미지에 기초하여 상기 사용자와 관련된 복수의 파라미터를 식별하고, 상기 복수의 파라미터에 기초하여 상기 사용자의 자세를 식별하고, 상기 변경하는 단계는 상기 사용자의 자세가 제1 자세이면 상기 복수의 파라미터 중 적어도 하나의 제1 파라미터에 기초하여 상기 디스플레이의 자세를 변경하고, 상기 사용자의 자세가 제2 자세이면 상기 복수의 파라미터 중 적어도 하나의 제2 파라미터에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
그리고, 컨텐츠를 디스플레이하는 단계를 더 포함하며, 상기 변경하는 단계는 상기 컨텐츠의 타입 및 상기 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 상기 변경하는 단계는 상기 사용자의 자세가 변경되고 기설정된 시간이 경과하면, 상기 변경된 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
그리고, 상기 촬영하는 단계는 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하고, 상기 사용자의 자세를 식별하는 단계는 상기 복수의 이미지에 기초하여 현재 시점으로부터 기설정된 시점에서의 상기 사용자의 예측 자세를 획득하고, 상기 변경하는 단계는 상기 사용자의 자세 및 상기 사용자의 예측 자세에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 상기 사용자의 자세를 식별하는 단계는 상기 촬영된 이미지를 상기 제1 신경망 모델에 입력하여 상기 사용자의 자세를 식별할 수 있다.
그리고, 상기 변경하는 단계는 상기 복수의 파라미터를 제2 신경망 모델에 입력하여 상기 디스플레이의 자세에 대한 정보를 획득하고, 상기 디스플레이의 자세에 대한 정보에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 상기 디스플레이의 자세를 변경하는 사용자 명령이 수신되면, 상기 사용자 명령에 기초하여 상기 디스플레이의 자세를 변경하는 단계 및 상기 복수의 파라미터 및 상기 변경된 디스플레이의 자세에 기초하여 상기 제2 신경망 모델을 업데이트하는 단계를 더 포함할 수 있다.
그리고, 상기 촬영하는 단계는 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하고, 상기 변경하는 단계는 상기 복수의 이미지로부터 기설정된 사용자의 제스처가 식별되거나 상기 디스플레이의 자세를 변경하는 사용자 음성이 수신되면, 상기 제스처 또는 상기 사용자 음성에 기초하여 상기 디스플레이의 자세를 변경할 수 있다.
또한, 상기 전자 장치에 포함된 카메라는 상기 디스플레이의 일측에 배치되고, 상기 변경하는 단계는 상기 사용자 또는 상기 사용자의 기설정된 신체가 상기 촬영된 이미지에서 기설정된 영역 내에 포함되도록 상기 디스플레이의 자세를 변경할 수 있다.
도 1a 및 도 1b는 본 개시의 이해를 돕기 위한 거치대를 설명하기 위한 도면들이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성을 나타내는 블럭도이다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치(100)의 대략적인 구조를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치의 대략적인 동작을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 프로세서가 이용하는 정보 및 그에 따른 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 디스플레이의 자세를 결정하는 구체적인 방법을 설명하기 위한 흐름도이다.
도 8은 본 개시의 일 실시 예에 따른 사용자의 자세에 따른 전자 장치의 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 디스플레이의 roll 각도 제어를 설명하기 위한 도면이다.
도 10 및 도 11은 본 개시의 일 실시 예에 따른 예측 동작을 설명하기 위한 도면들이다.
도 12 및 도 13은 본 개시의 일 실시 예에 따른 컨텐츠의 타입에 따른 동작을 설명하기 위한 도면들이다.
도 14는 본 개시의 일 실시 예에 따른 사용자에 따른 적응적인 동작을 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 목적은 사용자의 자세에 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법을 제공함에 있다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공 지능 전자 장치)를 지칭할 수 있다.
이하 첨부된 도면들을 참조하여 본 개시의 다양한 실시 예를 보다 상세하게 설명한다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 나타내는 블럭도이다.
전자 장치(100)는 사용자에게 화면을 제공하는 장치일 수 있다. 예를 들어, 전자 장치(100)는 디스플레이를 구비하고, 디스플레이된 화면을 사용자에게 최적화된 자세로 제공하는 장치일 수도 있다. 여기서, 디스플레이는 전자 장치(100)에 포함된 구성일 수 있다. 다만, 이에 한정되는 것은 아니며, TV, 모니터, 노트북, 스마트폰, 태블릿 PC 등이 전자 장치(100)에 부착되어 디스플레이로서 동작할 수도 있다. 이 경우, 디스플레이는 전자 장치(100)에 탈부착이 가능할 수 있다.
다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 디스플레이를 구비한 장치를 거치하고, 거치된 장치의 디스플레이의 위치 및 방향 등을 사용자에게 최적화된 자세로 제공하는 장치일 수도 있다.
도 2에 따르면, 전자 장치(100)는 카메라(110), 구동부(120), 디스플레이(130) 및 프로세서(140)를 포함한다.
카메라(110)는 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 카메라(110)는 특정 시점에서의 정지 영상을 촬영할 수 있으나, 연속적으로 정지 영상을 촬영할 수도 있다.
카메라(110)는 전자 장치(100)의 일 방향을 촬영할 수 있다. 특히, 프로세서(140)는 카메라(110)를 통해 촬영된 이미지에 기초하여 사용자의 위치, 자세 등을 식별할 수 있다.
카메라(110)는 렌즈, 셔터, 조리개, 고체 촬상 소자, AFE(Analog Front End), TG(Timing Generator)를 포함한다. 셔터는 피사체에 반사된 빛이 카메라(110)로 들어오는 시간을 조절하고, 조리개는 빛이 들어오는 개구부의 크기를 기계적으로 증가 또는 감소시켜 렌즈에 입사되는 광량을 조절한다. 고체 촬상 소자는 피사체에 반사된 빛이 광전하로 축적되면, 광전하에 의한 상을 전기 신호로 출력한다. TG는 고체 촬상 소자의 픽셀 데이터를 리드아웃 하기 위한 타이밍 신호를 출력하며, AFE는 고체 촬상 소자로부터 출력되는 전기 신호를 샘플링하여 디지털화한다.
카메라(110)는 디스플레이(130)의 일측에 배치될 수 있다. 다만, 이에 한정되는 것은 아니며, 카메라(110)는 전자 장치(100)의 다른 위치에 배치될 수도 있다. 예를 들어, 카메라(110)는 구동부(120)와 디스플레이(130)를 연결하는 부위에 배치될 수도 있으며, 카메라(110)는 사용자를 촬영할 수 있는 위치라면 어떠한 위치라도 배치될 수 있다.
구동부(120)는 프로세서(140)의 제어에 따라 전자 장치(100)의 위치를 이동하기 위한 구성으로, 바퀴, 모터 등을 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 구동부(120)는 전자 장치(100)의 위치를 이동할 수 있는 구성이라면 어떠한 구성이라도 무방하다.
디스플레이(130)는 이미지를 디스플레이하는 구성으로, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(130) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(130)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.
프로세서(140)는 전자 장치(100)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(140)는 전자 장치(100)의 각 구성과 연결되어 전자 장치(100)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(140)는 카메라(110), 구동부(120), 디스플레이(130), 통신 인터페이스(미도시) 등과 같은 구성과 연결되어 전자 장치(100)의 동작을 제어할 수 있다.
적어도 하나의 프로세서(140)는 CPU, GPU(Graphics Processing Unit), APU(Accelerated Processing Unit), MIC(Many Integrated Core), NPU(Neural Processing Unit), 하드웨어 가속기 또는 머신 러닝 가속기 중 하나 이상을 포함할 수 있다. 적어도 하나의 프로세서(140)는 전자 장치(100)의 다른 구성 요소 중 하나 또는 임의의 조합을 제어할 수 있으며, 통신에 관한 동작 또는 데이터 처리를 수행할 수 있다. 적어도 하나의 프로세서(140)는 메모리에 저장된 하나 이상의 프로그램 또는 명령어(instruction)을 실행할 수 있다. 예를 들어, 적어도 하나의 프로세서(140)는 메모리에 저장된 하나 이상의 명령어를 실행함으로써, 본 개시의 일 실시 예에 따른 방법을 수행할 수 있다.
본 개시의 일 실시 예에 따른 방법이 복수의 동작을 포함하는 경우, 복수의 동작은 하나의 프로세서에 의해 수행될 수도 있고, 복수의 프로세서에 의해 수행될 수도 있다. 예를 들어, 일 실시 예에 따른 방법에 의해 제1 동작, 제2 동작, 제3 동작이 수행될 때, 제1 동작, 제2 동작 및 제3 동작 모두 제1 프로세서에 의해 수행될 수도 있고, 제1 동작 및 제2 동작은 제1 프로세서(예를 들어, 범용 프로세서)에 의해 수행되고 제3 동작은 제2 프로세서(예를 들어, 인공지능 전용 프로세서)에 의해 수행될 수도 있다.
적어도 하나의 프로세서(140)는 하나의 코어를 포함하는 단일 코어 프로세서(single core processor)로 구현될 수도 있고, 복수의 코어(예를 들어, 동종 멀티 코어 또는 이종 멀티 코어)를 포함하는 하나 이상의 멀티 코어 프로세서(multicore processor)로 구현될 수도 있다. 적어도 하나의 프로세서(140)가 멀티 코어 프로세서로 구현되는 경우, 멀티 코어 프로세서에 포함된 복수의 코어 각각은 캐시 메모리, 온 칩(On-chip) 메모리와 같은 프로세서 내부 메모리를 포함할 수 있으며, 복수의 코어에 의해 공유되는 공통 캐시가 멀티 코어 프로세서에 포함될 수 있다. 또한, 멀티 코어 프로세서에 포함된 복수의 코어 각각(또는 복수의 코어 중 일부)은 독립적으로 본 개시의 일 실시 예에 따른 방법을 구현하기 위한 프로그램 명령을 판독하여 수행할 수도 있고, 복수의 코어 전체(또는 일부)가 연계되어 본 개시의 일 실시 예에 따른 방법을 구현하기 위한 프로그램 명령을 판독하여 수행할 수도 있다.
본 개시의 일 실시 예에 따른 방법이 복수의 동작을 포함하는 경우, 복수의 동작은 멀티 코어 프로세서에 포함된 복수의 코어 중 하나의 코어에 의해 수행될 수도 있고, 복수의 코어에 의해 수행될 수도 있다. 예를 들어, 일 실시 예에 따른 방법에 의해 제1 동작, 제2 동작 및 제3 동작이 수행될 때, 제1 동작, 제2 동작 및 제3 동작 모두 멀티 코어 프로세서에 포함된 제1 코어에 의해 수행될 수도 있고, 제1 동작 및 제2 동작은 멀티 코어 프로세서에 포함된 제1 코어에 의해 수행되고 제3 동작은 멀티 코어 프로세서에 포함된 제2 코어에 의해 수행될 수도 있다.
본 개시의 실시 예들에서, 적어도 하나의 프로세서(140)는 하나 이상의 프로세서 및 기타 전자 부품들이 집적된 시스템 온 칩(SoC), 단일 코어 프로세서, 멀티 코어 프로세서, 또는 단일 코어 프로세서 또는 멀티 코어 프로세서에 포함된 코어를 의미할 수 있으며, 여기서 코어는 CPU, GPU, APU, MIC, NPU, 하드웨어 가속기 또는 기계 학습 가속기 등으로 구현될 수 있으나, 본 개시의 실시 예들이 이에 한정되는 것은 아니다. 다만, 이하에서는 설명의 편의를 위해, 프로세서(140)라는 표현으로 전자 장치(100)의 동작을 설명한다.
프로세서(140)는 카메라(110)를 통해 이미지를 촬영하고, 촬영된 이미지에 포함된 사용자의 자세를 식별할 수 있다. 예를 들어, 프로세서(140)는 촬영된 이미지를 제1 신경망 모델에 입력하여 사용자의 자세를 식별할 수 있다. 또는, 프로세서(140)는 촬영된 이미지로부터 사용자의 주요 부위를 식별하고, 식별된 주요 부위에 기초하여 사용자의 자세를 식별할 수도 있다. 가령, 프로세서(140)는 사용자의 눈, 어깨, 허리, 무릎, 발목을 식별하고, 주요 부위의 위치 및 주요 부위 간의 거리에 기초하여 사용자의 자세를 식별할 수도 있다.
프로세서(140)는 사용자의 자세에 기초하여 사용자와 관련된 복수의 파라미터 중 적어도 하나의 파라미터를 식별하고, 적어도 하나의 파라미터에 기초하여 전자 장치(100)의 위치를 변경하도록 구동부(120)를 제어하고, 디스플레이(130)의 자세를 변경할 수 있다.
예를 들어, 프로세서(140)는 사용자가 않은 자세인 경우 눈 높이, 눈의 위치, 머리/몸의 배향(Head/body orientation)을 나타내는 yaw 각도, picth 각도, roll 각도를 식별하고, 식별된 파라미터에 기초하여 사용자 전방의 기설정된 위치로 전자 장치(100)의 위치를 변경하도록 구동부(120)를 제어하고, 디스플레이(130)의 자세를 변경할 수 있다. 여기서, 기설정된 위치는 전자 장치(100)의 제조 시에 결정된 위치일 수 있다. 가령, 사용자 전방의 1m 위치일 수 있다. 기설정된 위치는 사용자의 조작에 따라 변경될 수 있다. 가령, 사용자가 수동으로 전자 장치(100)의 위치를 변경하는 경우, 전자 장치(100)는 사용자의 수동 조작에 기초하여 기설정된 위치를 변경할 수 있다. 디스플레이(130)의 자세는 디스플레이(130)의 배향(orientation) 및 높이를 의미하며, 디스플레이(130)의 배향은 yaw 각도, picth 각도, roll 각도로 나타낼 수 있다. yaw 각도는 수평면상에서 좌우 방향으로 변하는 각이며, picth 각도는 수평면이 상하로 기울어지는 각이며, roll 각도는 수평면이 좌우로 기울어지는 각일 수 있다.
또는, 프로세서(140)는 사용자가 선 자세인 경우 눈 높이, 눈의 위치, 몸의 배향을 나타내는 yaw 각도를 식별하고, 식별된 파라미터에 기초하여 사용자 전방의 기설정된 위치로 전자 장치(100)의 위치를 변경하도록 구동부(120)를 제어하고, 디스플레이(130)의 자세를 변경할 수도 있다.
또는, 프로세서(140)는 사용자가 누운 자세인 경우 눈 높이, 눈의 위치, 몸의 배향을 나타내는 yaw 각도, roll 각도를 식별하고, 식별된 파라미터에 기초하여 사용자 전방의 기설정된 위치로 전자 장치(100)의 위치를 변경하도록 구동부(120)를 제어하고, 디스플레이(130)의 자세를 변경할 수도 있다.
즉, 프로세서(140)는 사용자의 자세에 따라 전자 장치(100)의 위치 및 디스플레이(130)의 자세를 변경하기 위해 이용하는 파라미터를 변경할 수 있다. 여기서, 프로세서(140)는 카메라(110)를 통해 이미지가 촬영되면 촬영된 이미지로부터 복수의 파라미터를 획득할 수 있다. 또는, 프로세서(140)는 센서를 통해 사용자와 관련된 복수의 파라미터를 획득할 수도 있다. 또는, 프로세서(140)는 사용자의 식별된 후 복수의 파라미터를 획득할 수도 있다.
한편, 프로세서(140)는 카메라(110)를 통해 촬영된 이미지로부터 사용자의 위치 및 자세를 식별하고, 사용자의 위치에 기초하여 사용자 전방의 기설정된 위치로 전자 장치(100)의 위치를 변경하도록 구동부(120)를 제어하고, 사용자의 자세에 기초하여 전자 장치(100)의 미세 위치를 조정하고, 디스플레이(130)의 자세를 변경할 수도 있다. 예를 들어, 프로세서(140)는 촬영된 이미지로부터 사용자를 식별하여 사용자를 향하여 이동할 수 있다. 가령, 프로세서(140)는 촬영된 이미지의 중심으로부터 좌측에서 사용자가 식별되는 경우, 전자 장치(100)가 좌측 전방으로 이동하도록 구동부(120)를 제어할 수 있다. 여기서, 구동부(120)는 적어도 하나의 바퀴 및 모터를 포함하며, 전자 장치(100)를 이동시킬 수 있다면 어떠한 구성이라도 무방하다. 이후, 프로세서(140)는 사용자의 자세에 기초하여 전자 장치(100)의 위치를 변경할 수 있다. 즉, 프로세서(140)는 사용자의 위치에 기초하여 전자 장치(100)를 대략적으로 이동시키고, 이후 사용자의 자세가 식별되면 사용자의 자세에 기초하여 전자 장치(100)의 최종 위치를 식별할 수 있다.
전자 장치(100)는 통신 인터페이스 및 마이크를 더 포함하며, 프로세서(140)는 통신 인터페이스를 통해 타 전자 장치로부터 전자 장치(100)를 호출하는 사용자 명령이 수신되거나, 마이크를 통해 전자 장치(100)를 호출하는 사용자 음성이 수신되면, 사용자 명령 또는 사용자 음성에 기초하여 사용자를 향해 이동하도록 구동부(120)를 제어하고, 카메라(110)를 턴 온시켜 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득할 수 있다. 프로세서(140)는 기설정된 시간 간격으로 획득되는 이미지로부터 사용자의 자세 및 사용자와의 거리를 실시간으로 식별하고, 사용자와의 거리가 사용자의 자세에 대응되는 거리이면, 구동부(120)의 동작을 정지할 수 있다. 그리고, 프로세서(140)는 카메라(110)의 턴 온 상태를 유지할 수 있다.
예를 들어, 사용자는 스마트폰과 같은 장치를 통해 전자 장치(100)를 호출하는 사용자 명령을 입력하거나, 사용자 음성을 통해 전자 장치(100)를 호출할 수 있다. 이 경우, 프로세서(140)는 스마트폰으로부터 수신된 사용자 명령 또는 마이크를 통해 수신된 사용자 음성에 기초하여 전자 장치(100)의 위치를 변경할 수 있다. 가령, 사용자가 “거실로 와”라는 사용자 명령이 입력되면, 프로세서(140)는 텍스트 인식을 통해 거실로 이동할 수 있다. 또는, 전자 장치(100)는 복수의 마이크를 포함하며, 프로세서(140)는 복수의 마이크를 통해 사용자의 발화 위치를 식별하고, 사용자의 위치로 이동할 수도 있다. 프로세서(140)는 전자 장치(100)의 위치를 변경하는 중, 카메라(110)를 턴 온시켜 이미지를 촬영하고, 이미지에서 식별된 사용자에 기초하여 전자 장치(100)의 위치 변경을 정지할 수 있다. 예를 들어, 프로세서(140)는 전자 장치(100)의 위치를 변경하는 중, 카메라(110)를 턴 온시켜 이미지를 촬영하고, 이미지에서 식별된 사용자에 기초하여 전자 장치(100)와 사용자 간의 거리가 기설정된 거리이면 전자 장치(100)의 위치 변경을 정지할 수 있다. 이러한 동작을 통해 전자 장치(100)의 위치가 효율적으로 변경될 수 있다. 또한, 사용자 명령이 입력되거나 사용자 음성이 수신된 이후에 카메라(110)가 턴 온되기 때문에 카메라에 의한 불필요한 전력 소모를 줄일 수 있다.
또는, 프로세서(140)는 통신 인터페이스를 통해 타 전자 장치로부터 전자 장치(100)를 호출하는 사용자 명령이 수신되거나, 마이크를 통해 전자 장치(100)를 호출하는 사용자 음성이 수신되면, 카메라(110)를 턴 온시켜 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득하고, 복수의 이미지 각각으로부터 식별된 사용자를 향해 이동하도록 구동부(120)를 제어할 수도 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(140)는 카메라(110)를 통해 기설정된 시간 간격으로 이미지를 촬영하고, 사용자의 기설정된 제스쳐가 식별되면 사용자를 향해 이동하도록 구동부(120)를 제어할 수도 있다. 즉, 프로세서(140)는 사용자 명령 또는 사용자 음성이 없더라도 기설정된 제스쳐를 통해 사용자를 향해 이동하도록 구동부(120)를 제어할 수도 있다. 여기서, 기설정된 제스쳐는 전자 장치(100)를 호출하기 위한 제스쳐로서, 제조 당시 저장된 제스쳐 또는 사용자가 설정한 제스쳐 중 적어도 하나를 포함할 수 있다. 또는, 전자 장치(100)는 복수의 기설정된 위치에 대한 정보를 저장한 상태이고, 프로세서(140)는 사용자 명령 또는 사용자 음성에 기초하여 복수의 기설정된 위치 중 하나로 전자 장치(100)의 위치를 변경할 수도 있다. 예를 들어, 사용자는 전자 장치(100)를 침실 내의 특정 위치로 수동으로 이동시키고, 특정 위치를 "침실"이라는 명령과 함께 맵핑하여 저장할 수 있으며, 프로세서(140)는 "침실"이라는 사용자 음성이 수신되면, 침실 내의 기설정된 위치로 전자 장치(100)의 위치를 변경할 수 있다. 이 경우, 프로세서(140)는 전자 장치(100)의 이동 중에는 카메라를 턴 온하지 않고, 이동이 완료된 후에 카메라(110)를 턴 온할 수도 있다. 그리고, 프로세서(140)는 카메라(110)의 턴 온 이후 복수의 이미지를 촬영하지 않고, 1회의 이미지 촬영을 통해 사용자의 자세를 식별할 수도 있다.
다만, 이에 한정되는 것은 아니며, 이상과 같은 명령어 맵핑은 얼마든지 다양한 방법으로 가능하다. 예를 들어, 전자 장치(100)는 사용자의 호출에 따라 특정 위치로 이동한 후, 사용자에게 명령어 맵핑 여부를 문의할 수도 있다. 또는, 전자 장치(100)가 사용자의 호출에 따라 특정 위치로 이동한 후, 사용자가 특정 위치의 동작이 편하다고 느끼는 경우, 특정 위치와 명령어를 맵핑하여 저장할 수도 있다. 또는, 전자 장치(100)는 사용자의 호출에 따라 이동하는 과정에서 사용자가 위치한 장소의 평면도를 식별하고, 평면도에서 각 공간의 타입을 식별하며, 각 공간의 타입에 기초하여 기설정된 위치를 식별할 수도 있다. 예를 들어, 전자 장치(100)는 사용자의 호출에 따라 이동하는 과정에서 사용자가 위치한 장소에서 전자 장치(100)가 이동 가능한 제1 영역 및 벽과 같은 장애물이 있는 제2 영역을 포함하는 평면도를 식별하고, 제1 영역이 거실인지 등을 식별하며, 제1 영역 각각의 타입에 기초하여 기설정된 위치를 식별할 수도 있다. 여기서, 기설정된 위치는 제조사에 의해 설정된 위치일 수 있다. 가령, 거실 타입의 공간에서는 정중앙이 기설정된 위치로 저장된 상태일 수 있다.
카메라(110)는 사용자가 디스플레이(130)를 통해 컨텐츠를 시청하는 동안 턴 온 상태를 유지할 수 있다. 예를 들어, 카메라(110)는 사용자가 전자 장치(100)를 턴 오프할 때까지 카메라(110)의 턴 온 상태를 유지할 수 있다. 다만, 이에 한정되는 것은 아니며, 카메라(110)는 항상 턴 온 상태일 수도 있다. 가령, 디스플레이(130)가 컨텐츠를 디스플레이하지 않는 동안에도 카메라(110)는 턴 온 상태일 수도 있으며, 이 경우 프로세서(140)는 카메라(110)를 통한 연속 촬영 이미지로부터 사용자의 제스쳐를 감지하여 전자 장치(100)를 제어할 수도 있다.
프로세서(140)는 촬영된 이미지에 기초하여 사용자와 관련된 복수의 파라미터를 식별하고, 복수의 파라미터에 기초하여 사용자의 자세를 식별할 수 있다. 예를 들어, 프로세서(140)는 촬영된 이미지에 기초하여 사용자의 위치, 머리/몸의 배향을 나타내는 yaw 각도, picth 각도, roll 각도, 자세 변화(앉기, 눕기, 서기 등), 사용자의 제스쳐, 사용자 key point 등을 복수의 파라미터로서 식별할 수 있다. 다만, 이에 한정되는 것은 아니며, 사용자와 관련된 복수의 파라미터는 얼마든지 다양한 요소가 포함될 수도 있다. 여기서, 사용자 key point는 사용자의 주요 신체 부위를 의미하며, 제조사에 의해 기설정될 수 있다. 예를 들어, 사용자 key point는 눈, 귀, 목, 어깨, 팔꿈치, 엉덩이 또는 무릎 중 적어도 하나를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 사용자 key point는 얼마든지 다양한 사용자의 주요 신체 부위를 포함할 수도 있다.
프로세서(140)는 사용자의 자세가 제1 자세이면 복수의 파라미터 중 적어도 하나의 제1 파라미터에 기초하여 디스플레이(130)의 자세를 변경하고, 사용자의 자세가 제2 자세이면 복수의 파라미터 중 적어도 하나의 제2 파라미터에 기초하여 디스플레이(130)의 자세를 변경할 수 있다. 즉, 프로세서(140)는 사용자의 자세에 따라 식별된 복수의 파라미터 중 적어도 하나의 파라미터를 이용하여 디스플레이(130)의 자세를 변경할 수 있다. 여기서, 제1 자세인 경우에 이용되는 적어도 하나의 제1 파라미터와 제2 자세인 경우에 이용되는 적어도 하나의 제2 파라미터는 일부가 중복될 수도 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(140)는 사용자의 자세 및 복수의 파라미터 전체를 이용하여 디스플레이(130)의 자세를 변경할 수도 있다. 또는, 프로세서(140)는 복수의 파라미터 전체를 이용하여 디스플레이(130)의 자세를 변경할 수도 있다. 예를 들어, 프로세서(140)는 전자 장치(100)의 여유 리소스에 기초하여 파라미터 전체를 이용할지 또는 파라미터의 일부를 이용할지를 결정할 수 있다.
프로세서(140)는 컨텐츠를 디스플레이하도록 디스플레이(130)를 제어하고, 컨텐츠의 타입 및 사용자의 자세에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다. 예를 들어, 프로세서(140)는 사용자의 자세가 동일하더라도 컨텐츠의 타입이 제1 타입인 경우보다 제2 타입인 경우에 디스플레이(130)의 높이를 더 높이거나 디스플레이(130)의 방향을 좀더 변경할 수 있다. 가령, 프로세서(140)는 컨텐츠의 타입이 게임 방송인 경우보다 스포츠 방송인 경우에 디스플레이의 높이를 더 높여 다수의 사용자가 시청할 수 있도록 동작할 수도 있다.
프로세서(140)는 사용자의 자세가 변경되면, 변경된 사용자의 자세에 기초하여 디스플레이(130)의 자세를 변경할 수 있다. 예를 들어, 프로세서(140)는 사용자의 얼굴 높이가 변경되면, 사용자의 얼굴 높이에 기초하여 디스플레이(130)의 높이를 변경할 수 있다.
또는, 프로세서(140)는 사용자의 자세가 변경되고 기설정된 시간이 경과하면, 변경된 사용자의 자세에 기초하여 디스플레이(130)의 자세를 변경할 수 있다. 예를 들어, 프로세서(140)는 사용자의 얼굴 높이가 변경되고 1분이 경과하면, 사용자의 얼굴 높이에 기초하여 디스플레이(130)의 높이를 변경할 수 있다. 여기서, 기설정된 시간은 얼마든지 다양하게 변경 가능하다.
다만, 이에 한정되는 것은 아니며, 프로세서(140)는 사용자의 앉은 자세, 선 자세 및 누운 자세 중 하나가 다른 자세로 변경되는 경우에만 디스플레이(130)의 자세를 변경할 수도 있다. 예를 들어, 프로세서(140)는 사용자가 앉은 자세에서 선 자세로 변경되고 기설정된 시간이 경과하면, 변경된 사용자의 자세에 기초하여 디스플레이(130)의 자세를 변경할 수 있다. 다만, 프로세서(140)는 사용자가 앉은 자세에서 사용자의 얼굴 높이만이 변경되는 경우에는 디스플레이(130)의 자세를 변경하지 않을 수도 있다.
또한, 프로세서(140)는 사용자의 자세가 변경되고 기설정된 시간이 경과하면, 변경된 사용자의 자세에 기초하여 전자 장치(100)의 위치를 변경할 수도 있다. 예를 들어, 프로세서(140)는 사용자가 앉은 자세에서 선 자세로 변경되고 기설정된 시간이 경과하면, 사용자와 전자 장치(100) 간의 거리를 증가시킬 수도 있다.
프로세서(140)는 카메라(110)를 통해 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득하고, 복수의 이미지에 기초하여 현재 시점으로부터 기설정된 시점에서의 사용자의 예측 자세를 획득하고, 사용자의 자세 및 사용자의 예측 자세에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다. 또한, 프로세서(140)는 사용자의 자세 및 사용자의 예측 자세에 기초하여 전자 장치(100)의 위치를 변경할 수도 있다. 이러한 동작을 통해, 물리적인 이동 또는 물리적인 자세 변경의 지연 시간에 따른 사용자 불편을 해소할 수 있다.
전자 장치(100)는 제1 신경망 모델이 저장된 메모리를 더 포함하며, 프로세서(140)는 촬영된 이미지를 제1 신경망 모델에 입력하여 사용자의 자세를 식별할 수 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(140)는 룰 베이스의 모델을 통해 이미지로부터 사용자의 자세를 식별할 수도 있다. 여기서, 제1 신경망 모델은 사용자를 포함하는 샘플 이미지와 샘플 이미지에 대응되는 사용자의 자세 정보를 학습한 모델일 수 있다.
또는, 전자 장치(100)는 제2 신경망 모델이 저장된 메모리를 더 포함하며, 프로세서(140)는 복수의 파라미터를 제2 신경망 모델에 입력하여 디스플레이(130)의 자세에 대한 정보를 획득하고, 디스플레이(130)의 자세에 대한 정보에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다. 예를 들어, 프로세서(140)는 복수의 파라미터를 제2 신경망 모델에 입력하여 디스플레이(130)의 높이, yaw 각도, picth 각도, roll 각도를 획득하고, 높이, yaw 각도, picth 각도, roll 각도에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다. 여기서, 제2 신경망 모델은 복수의 샘플 파라미터와 복수의 샘플 파라미터에 대응되는 디스플레이(130)의 자세 정보를 학습한 모델일 수 있다.
여기서, 전자 장치(100)는 버튼, 터치 패드, 마우스, 키보드 및 터치 스크린 등의 사용자 인터페이스를 더 포함하며, 프로세서(140)는 사용자 인터페이스를 통해 디스플레이(130)의 자세를 변경하는 사용자 명령이 수신되면, 사용자 명령에 기초하여 디스플레이(130)의 자세를 변경하고, 복수의 파라미터 및 변경된 디스플레이(130)의 자세에 기초하여 제2 신경망 모델을 업데이트할 수도 있다. 이러한 동작을 통해, 사용자에 적응적으로 동작하는 전자 장치(100)의 구현이 가능하다. 즉, 사용자의 자세 변화가 없더라도, 사용자의 수동 조작에 따라 디스플레이(130)의 자세가 변경될 수 있으며, 프로세서(140)는 이를 학습하여 사용자에게 최적의 디스플레이(130)의 자세를 제공할 수 있다.
전자 장치(100)는 마이크를 더 포함하며, 프로세서(140)는 카메라(110)를 통해 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득하고, 복수의 이미지로부터 기설정된 사용자의 제스처가 식별되거나 마이크를 통해 디스플레이(130)의 자세를 변경하는 사용자 음성이 수신되면, 제스처 또는 사용자 음성에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다. 여기서, 기설정된 시간 간격은 카메라(110)의 fps(frame per second)일 수 있다. 다만, 이에 한정되는 것은 아니며, 가령 기설정된 시간 간격은 카메라(110)의 fps보다 낮으며, 그에 따라 전력 소모를 줄일 수도 있다. 또는, 전자 장치(100)와 사용자의 거리에 따라 기설정된 시간 간격이 달라질 수도 있다. 예를 들어, 전자 장치(100)와 사용자의 거리가 기설정된 거리 이상이면, 기설정된 시간 간격은 제1 시간 간격이고, 전자 장치(100)와 사용자의 거리가 기설정된 거리 미만이면, 기설정된 시간 간격은 제1 시간 간격보다 작은 제2 시간 간격일 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(140)는 스마트폰 등으로부터 수신된 사용자 명령에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다.
한편, 카메라(110)는 디스플레이(130)의 일측에 배치되고, 프로세서(140)는 사용자 또는 사용자의 기설정된 신체 부위가 촬영된 이미지에서 기설정된 영역 내에 포함되도록 디스플레이(130)의 자세를 변경할 수 있다. 예를 들어, 프로세서(140)는 사용자의 얼굴이 촬영된 이미지의 중심으로부터 기설정된 거리 내에 포함되도록 디스플레이(130)의 자세를 변경할 수 있다. 즉, 프로세서(140)는 디스플레이(130)의 자세를 변경하는 과정에서 카메라(110)가 디스플레이(130) 전방의 사용자를 촬영 가능하도록 디스플레이(130)의 자세를 유지할 수 있다. 그에 따라, 디스플레이(130)의 자세가 극단적으로 변경되어 사용자를 촬영하지 못하는 문제를 방지할 수 있다.
전자 장치(100)는 디스플레이 자세 구동부(display posture driver, 120)를 더 포함하며, 프로세서(140)는 디스플레이(130)의 자세를 변경하도록 디스플레이 자세 구동부를 제어할 수 있다.
한편, 본 개시에 따른 인공 지능과 관련된 기능은 프로세서(140)와 메모리를 통해 동작될 수 있다.
프로세서(140)는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공 지능 전용 프로세서일 수 있다.
하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공 지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공 지능 전용 프로세서인 경우, 인공 지능 전용 프로세서는 특정 인공 지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. 기 정의된 동작 규칙 또는 인공 지능 모델은 학습을 통해 만들어진 것을 특징으로 한다.
여기서, 학습을 통해 만들어진다는 것은, 기본 인공 지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공 지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공 지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.
인공 지능 모델은 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공 지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공 지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다.
예를 들어, 제1 신경망 모델은 복수의 샘플 이미지 및 복수의 샘플 이미지에 포함된 사용자의 자세를 학습하여 획득된 모델일 수 있다. 여기서, 복수의 샘플 이미지는 사용자를 포함하도록 촬영된 이미지이고, 복수의 샘플 이미지에 포함된 사용자의 자세는 수동으로 입력된 데이터일 수 있다. 제2 신경망 모델은 복수의 샘플 파라미터와 복수의 샘플 파라미터에 대응되는 디스플레이(130)의 자세 정보를 학습한 모델일 수 있다. 제2 신경망 모델은 사용자의 조작에 따라 추가 학습이 수행되어 업데이트될 수 있다. 가령, 사용자의 자세 변화 없이 사용자의 조작에 따라 디스플레이(130)의 자세가 변경되면, 사용자의 자세에 대응되는 복수의 샘플 파라미터 및 변경된 디스플레이(130)의 자세를 추가 학습하여 제2 신경망 모델이 업데이트될 수 있다.
인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN(Convolutional Neural Network), DNN (Deep Neural Network), RNN(Recurrent Neural Network), RBM(Restricted Boltzmann Machine), DBN(Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network), GAN(Generative Adversarial Network) 또는 심층 Q-네트워크(Deep Q-Networks) 등이 있으나, 이에 한정되는 것은 아니다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치(100)의 세부 구성을 나타내는 블럭도이다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치(100)의 세부 구성을 나타내는 블럭도이다. 전자 장치(100)는 카메라(110), 구동부(120), 디스플레이(130) 및 프로세서(140)를 포함할 수 있다. 또한, 도 3에 따르면, 전자 장치(100)는 통신 인터페이스(150), 마이크(160), 메모리(170), 사용자 인터페이스(180), 센서(185), 디스플레이 자세 구동부(190), 스피커(195)를 더 포함할 수도 있다. 도 3에 도시된 구성 요소들 중 도 2에 도시된 구성 요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
통신 인터페이스(150)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 예를 들어, 전자 장치(100)는 통신 인터페이스(150)를 통해 사용자 단말 장치 또는 서버와 통신을 수행할 수 있다.
통신 인터페이스(150)는 와이파이 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈 등을 포함할 수 있다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.
와이파이 모듈, 블루투스 모듈은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 모듈이나 블루투스 모듈을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 적외선 통신 모듈은 시 광선과 밀리미터파 사이에 있는 적외선을 이용하여 근거리에 무선으로 데이터를 전송하는 적외선 통신(IrDA, infrared Data Association)기술에 따라 통신을 수행한다.
무선 통신 모듈은 상술한 통신 방식 이외에 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.
또는, 통신 인터페이스(150)는 HDMI, DP, 썬더볼트, USB, RGB, D-SUB, DVI 등과 같은 유선 통신 인터페이스를 포함할 수 있다.
그 밖에 통신 인터페이스(150)는 LAN(Local Area Network) 모듈, 이더넷 모듈, 또는 페어 케이블, 동축 케이블 또는 광섬유 케이블 등을 이용하여 통신을 수행하는 유선 통신 모듈 중 적어도 하나를 포함할 수도 있다.
마이크(160)는 사운드를 입력받아 전기적 신호인 오디오 신호로 변환하기 위한 구성이다. 마이크(160)는 프로세서(140)와 전기적으로 연결되며, 프로세서(140)의 제어에 의해 사운드를 수신할 수 있다.
예를 들어, 마이크(160)는 전자 장치(100)의 상측이나 전면 방향, 측면 방향 등에 형성될 수 있다. 또는, 마이크(160)는 전자 장치(100)와는 별도의 장치, 예를 들어 리모컨 등에 구비될 수도 있다. 이 경우, 별도의 장치인 리모컨은 마이크(160)를 통해 사운드를 수신하고, 수신된 사운드에 대응되는 전기적 신호인 오디오 신호를 전자 장치(100)로 제공할 수도 있다.
마이크(160)는 아날로그 형태의 사운드를 수집하는 마이크, 수집된 사운드를 증폭하는 앰프 회로, 증폭된 사운드를 샘플링하여 디지털 신호로 변환하는 A/D 변환회로, 변환된 디지털 신호로부터 노이즈 성분을 제거하는 필터 회로 등과 같은 다양한 구성을 포함할 수 있다.
한편, 마이크(160)는 사운드 센서의 형태로 구현될 수도 있으며, 사운드를 수집할 수 있는 구성이라면 어떠한 방식이라도 무방하다.
메모리(170)는 프로세서(140) 등이 접근할 수 있도록 데이터 등의 정보를 전기 또는 자기 형태로 저장하는 하드웨어를 지칭할 수 있다. 이를 위해, 메모리(170)는 비휘발성 메모리, 휘발성 메모리, 플래시 메모리(Flash Memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD), RAM, ROM 등 중에서 적어도 하나의 하드웨어로 구현될 수 있다.
메모리(170)에는 전자 장치(100) 또는 프로세서(140)의 동작에 필요한 적어도 하나의 인스트럭션(instruction)이 저장될 수 있다. 여기서, 인스트럭션은 전자 장치(100) 또는 프로세서(140)의 동작을 지시하는 부호 단위로서, 컴퓨터가 이해할 수 있는 언어인 기계어로 작성된 것일 수 있다. 또는, 메모리(170)에는 전자 장치(100) 또는 프로세서(140)의 특정 작업을 수행하는 복수의 인스트럭션이 인스트럭션 집합체(instruction set)로서 저장될 수도 있다.
메모리(170)에는 문자, 수, 영상 등을 나타낼 수 있는 비트 또는 바이트 단위의 정보인 데이터가 저장될 수 있다. 예를 들어, 메모리(170)에는 신경망 모델 등이 저장될 수 있다.
메모리(170)는 프로세서(140)에 의해 액세스되며, 프로세서(140)에 의해 인스트럭션, 인스트럭션 집합체 또는 데이터에 대한 독취/기록/수정/삭제/갱신 등이 수행될 수 있다.
사용자 인터페이스(180)는 버튼, 터치 패드, 마우스 및 키보드 등으로 구현되거나, 디스플레이 기능 및 조작 입력 기능도 함께 수행 가능한 터치 스크린으로도 구현될 수 있다. 여기서, 버튼은 전자 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.
센서(185)는 RGB-D 센서 또는 ToF 센서 중 적어도 하나를 포함할 수 있다. 프로세서(140)는 RGB-D 센서를 통해 가시광선 영역에서의 RGB 영상, IR을 통한 뎁스 영상 및 IR을 통한 열 영상을 획득할 수 있다. ToF 센서는 3차원 센서로 적외선 파장을 통해 물체로 발사한 빛이 튕겨져 돌아오는 거리를 시간으로 계산, 사물의 입체감과 공간 정보, 움직임을 인식하는 센서일 수 있다.
센서(185)는 조도 센서를 더 포함할 수도 있다. 조도 센서는 단위 면적당 단위 시간에 받는 빛의 양을 나타내는 조도를 감지하는 센서일 수 있다.
디스플레이 자세 구동부(190)는 디스플레이(130)의 자세를 변경하기 위한 구성일 수 있다. 예를 들어, 디스플레이 자세 구동부(190)는 디스플레이(130)의 높이를 변경하기 위한 제1 구동부 및 디스플레이의 3축 각도를 변경하기 위한 3개의 제2 구동부를 포함하며, 디스플레이(130)의 높이 또는 3축 각도 중 적어도 하나를 변경하여 디스플레이(130)의 자세를 변경할 수 있다. 여기서, 제1 구동부는 톱니바퀴가 연결된 제1 모터와 톱니 형태의 일 모서리가 톱니바퀴에 맞물린 부재를 포함할 수 있다. 제1 구동부는 프로세서(140)의 제어에 따라 제1 모터를 구동하며, 제1 모터가 구동됨에 따라 부재를 상하로 이동시킬 수 있다. 여기서, 부재는 디스플레이(130)에 연결될 수 있다. 3개의 제2 구동부 각각은 톱니바퀴가 연결된 제2 모터를 포함할 수 있다. 3개의 제2 구동부 각각은 프로세서(140)의 제어에 따라 제2 모터를 구동하며, 제2 모터가 구동됨에 따라 디스플레이(130)를 회전시킬 수 있다. 여기서, 3개의 제2 구동부는 서로 수직한 방향으로 디스플레이(130)를 회전시키도록 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 디스플레이 자세 구동부(190)는 얼마든지 다양한 형태로 구현될 수도 있다.
스피커(195)는 프로세서(140)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.
이상과 같이 전자 장치(100)는 사용자에게 최적화된 자세로 화면을 제공하여 사용자의 편의성을 향상시킬 수 있다. 또한, 전자 장치(100)는 사용자의 자세와 디스플레이의 자세를 학습하여 사용자에게 적응적인 동작을 수행할 수도 있다.
이하에서는 도 4 내지 도 13을 통해 전자 장치(100)의 동작을 좀더 구체적으로 설명한다. 도 4 내지 도 13에서는 설명의 편의를 위해 개별적인 실시 예에 대하여 설명한다. 다만, 도 4 내지 도 13의 개별적인 실시 예는 얼마든지 조합된 상태로 실시될 수도 있다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치(100)의 대략적인 구조를 설명하기 위한 도면이다.
전자 장치(100)는 도 4에 도시된 바와 같이, 본체(405), 구동부(120), 디스플레이(130), 디스플레이 자세 구동부(190)를 포함할 수 있다.
본체(405)는 하측에 구동부(120)가 형성되고, 디스플레이 자세 구동부(190)를 통해 디스플레이(130)를 지탱하기 위한 구조물일 수 있다. 본체(405)는 배터리(410) 및 라이다 센서(420-1)를 포함하며, 배터리(410)는 구동부(120)로 전원을 공급하고 라이다 센서(420-1)는 주변 지형에 대한 스캐닝 정보를 획득할 수 있다.
구동부(120)는 본체(405)의 하측에 형성되며, 복수의 바퀴를 포함할 수 있다. 구동부(120)는 프로세서(140)의 제어에 따라 전자 장치(100)의 위치를 이동시킬 수 있다. 예를 들어, 구동부(120)는 복수의 바퀴 및 프로세서(140)의 제어에 따라 복수의 바퀴를 제어하기 위한 제어 회로를 포함할 수 있다.
구동부(120)는 RGB-D 센서(420-2) 및 ToF 센서(time of flight, 420-3)를 포함할 수 있다. RGB-D 센서(420-2)는 적외선 센서를 포함하며, 적외선 센서가 방출한 적외선이 피사체에 반사되어 들어오는 적외선 신호를 분석함으로써 피사체와의 거리를 추정할 수 있다. 또한, 적외선 영역의 일부에서는 열원의 감지가 가능하며 0K 이상의 모든 물체는 열 방사선을 방출하기 때문에, RGB-D 센서(420-2)는 적외선으로 열원을 감지할 수도 있다. 즉, RGB-D 센서(420-2)는 사용자의 가시광선 영역에서의 RGB 영상, IR을 통한 뎁스 영상 및 IR을 통한 열 영상을 획득할 수 있다. ToF 센서(420-3)는 3차원 센서로 적외선 파장을 통해 물체로 발사한 빛이 튕겨져 돌아오는 거리를 시간으로 계산, 사물의 입체감과 공간 정보, 움직임을 인식하는 센서일 수 있다.
디스플레이 자세 구동부(190)는 본체(405)와 디스플레이(130)를 연결하며, 프로세서(140)의 제어에 따라 디스플레이(130)의 자세를 변경할 수 있다. 예를 들어, 디스플레이 자세 구동부(190)는 디스플레이(130)의 높이를 변경하기 위한 제1 구동부 및 디스플레이의 3축 각도를 변경하기 위한 3개의 제2 구동부를 포함할 수 있다. 여기서, 제1 구동부는 본체(405)를 기준으로 디스플레이 자세 구동부(190)의 높이를 변경하기 위한 구성일 수 있다. 또는, 디스플레이 자세 구동부(190)는 디스플레이(130)를 거치하는 거치 부재 및 거치 부재와 본체(405)를 연결하는 연결 부재를 포함할 수 있으며, 제1 구동부는 연결 부재를 기준으로 거치 부재의 높이를 변경하기 위한 구성이고, 3개의 제2 구동부는 연결 부재를 기준으로 거치 부재의 3축 각도를 변경하기 위한 구성일 수 있다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치(100)의 대략적인 동작을 설명하기 위한 도면이다.
전자 장치(100)는 도 5에 도시된 바와 같이, 디스플레이(130)를 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 외부 디스플레이를 거치할 수 있는 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)는 외부 디스플레이의 상하좌우 외곽을 감싸는 형태의 거치 부재를 포함할 수 있다.
프로세서(140)는 사용자의 자세에 대응되는 적어도 하나의 파라미터에 기초하여 디스플레이(130)의 자세를 변경할 수 있다. 예를 들어, 프로세서(140)는 도 5의 좌측과 같이, 사용자의 몸의 배향에 기초하여 사용자가 누운 자세인 것으로 식별할 수 있다. 또는, 프로세서(140)는 사용자의 눈, 허리, 무릎의 위치에 기초하여 사용자가 누운 자세인 것으로 식별할 수도 있다. 또는, 프로세서(140)는 이미지를 제1 신경망 모델에 입력하여 사용자가 누운 자세인 것으로 식별할 수도 있으며, 얼마든지 다양한 방법을 통해 사용자의 자세를 식별할 수 있다. 프로세서(140)는 사용자가 누운 자세이면, 사용자의 눈 높이에 기초하여 기초하여 디스플레이(130)를 기울일 수도 있다.
프로세서(140)는 사용자의 자세 변경에 기초하여 디스플레이(130)의 자세를 변경할 수 있다. 예를 들어, 프로세서(140)는 도 5의 좌측과 같은 사용자의 누운 자세가 도 5의 우측과 같은 사용자의 앉은 자세로 변경되면, 사용자의 눈 높이에 기초하여 전자 장치(100)의 위치를 변경하고, 디스플레이(130)의 자세를 변경할 수 있다.
또는, 프로세서(140)는 사용자의 머리/어깨의 yaw 각도에 따라 전자 장치(100)의 위치를 변경하고, 사용자의 눈 높이, picth 각도에 따라 디스플레이(130)의 높이, pitch 각도를 변경할 수도 있다. 예를 들어, 프로세서(140)는 도 5의 좌측과 같이 사용자의 머리의 yaw 각도가 510-1인 상태에서 도 5의 우측과 같이 사용자의 머리의 yaw 각도가 510-2인 상태와 같이 사용자의 머리가 일정 각도로 회전하면, 전자 장치(100)의 위치를 사용자로부터 좀더 먼 곳으로 이동시키도록 구동부(120)를 제어할 수 있다. 그리고, 프로세서(140)는 사용자의 눈 높이가 도 5의 좌측과 같은 상태에서 도 5의 우측과 같이 높아지면, 디스플레이(130)의 높이를 낮출 수도 있다. 여기서, 프로세서(140)는 촬영된 이미지로부터 사용자의 눈의 상대적인 높이를 식별할 수 있다. 예를 들어, 프로세서(140)는 제1 이미지로부터 사용자의 눈을 식별하고, 제1 이미지 이후에 촬영된 제2 이미지로부터 사용자의 눈의 식별하고, 사용자의 눈의 위치가 높아진 것을 식별할 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(140)는 얼마든지 다양한 파라미터에 기초하여 전자 장치(100)의 위치 또는 디스플레이(130)의 자세 중 적어도 하나를 변경할 수도 있다.
또는, 프로세서(140)는 전자 장치(100) 주변의 장애물에 기초하여 전자 장치(100)의 위치 또는 디스플레이(130)의 자세 중 적어도 하나를 변경할 수도 있다. 예를 들어, 프로세서(140)는 사용자의 자세 변경에 기초하여 전자 장치(100)의 위치를 변경하는 도중에 장애물이 발견되면, 전자 장치(100)의 위치 변경 동작을 디스플레이(130)의 자세 변경 동작으로 변경할 수도 있다. 예를 들어, 프로세서(140)는 전자 장치(100)의 위치를 변경하는 도중에 장애물이 발견되어 사용자에게 더 이상 가까이 갈 수 없는 경우, 위치 변경 동작을 중지하고, 디스플레이(130)의 높이를 높일 수도 있다. 또는, 프로세서(140)는 사용자의 자세 변경에 기초하여 전자 장치(100)의 위치를 제1 위치로 변경하는 도중에 장애물이 발견되면, 전자 장치(100)의 위치를 제1 위치에서 제2 위치로 변경하고, 변경된 제2 위치에 기초하여 디스플레이(130)의 자세를 업데이트할 수도 있다. 예를 들어, 프로세서(140)는 전자 장치(100)의 위치를 제1 위치에서 좀더 좌측의 제2 위치로 변경하는 경우, 디스플레이(130)의 자세를 좀더 우측으로 회전할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 프로세서(140)가 이용하는 정보 및 그에 따른 동작을 설명하기 위한 도면이다. 도 6에서는 설명의 편의를 위해, 프로세서(140)가 영상 인식부, 음성 인식부 및 디스플레이 자세 결정부를 포함하는 것으로 설명한다. 영상 인식부, 음성 인식부 및 디스플레이 자세 결정부 각각은 소프트웨어로 구현되거나 프로세서(140)의 일 하드웨어 구성으로 구현될 수 있다.
영상 인식부는 카메라(110)를 통해 촬영된 이미지로부터 사용자의 머리/몸의 배향(Head/body orientation), 사용자의 위치(거리, 방향)(Person position(distance, angle)), 사용자의 자세(Person posture), 눈의 위치(Eye position), 키포인트(Keypoint), 제스쳐(Gesture)를 식별할 수 있다. 예를 들어, 영상 인식부는 카메라(110)를 통해 촬영된 이미지로부터 사용자의 머리를 식별하고, 사용자의 머리 내에서 사용자의 눈을 식별하는 방식과 같이 단계적으로 사용자에 대한 정보를 식별할 수 있다. 또한, 영상 인식부는 촬영된 이미지로부터 사용자의 눈, 귀, 어깨, 팔꿈치, 골반, 무릎 등과 같은 중요 지점을 키포인트로서 식별할 수 있다. 영상 인식부는 획득된 정보에 기초하여 머리의 배향, 몸의 배향, 사용자의 위치, 사용자의 자세, 눈 높이 등과 같은 정보를 획득할 수 있다. 가령, 영상 인식부는 촬영된 이미지를 신경망 모델에 입력하여 사용자의 키포인트를 획득할 수 있다. 여기서, 신경망 모델은 복수의 샘플 이미지와 복수의 샘플 이미지에 포함된 사용자의 키포인트를 학습한 모델일 수 있다.
다만, 이에 한정되는 것은 아니며, 영상 인식부는 얼마든지 다양한 사용자에 대한 정보를 추가로 획득할 수도 있다. 또한, 영상 인식부는 신경망 모델에 구현될 수도 있다.
음성 인식부는 마이크(160)를 통해 수신된 사용자 음성에 기초하여 사용자의 방향 등을 식별할 수 있다. 특히, 음성 인식부는 사용자 음성에 기초하여 사용자 입의 방향을 식별할 수도 있다. 예를 들어, 마이크(160)가 제1 마이크 및 제1 마이크와 d만큼 이격된 제2 마이크를 포함하는 경우, 제1 마이크를 통해 수신되는 사용자 음성의 입사각 θ는 θ = arccos((ψλ)/(2πd))이고, 여기서 ψ는 위상차, λ는 파장을 나타내며, 위상차 및 파장은 두 개의 안테나를 통해 획득할 수 있다. 다만, 이에 한정되는 것은 아니며, 사용자의 방향을 획득하는 방법은 얼마든지 다양할 수 있다.
다만, 음성 인식부는 부가적인 구성일 수도 있다. 예를 들어, 영상 인식부에서 획득된 정보에만 기초하여 디스플레이(130)의 자세가 결정될 수도 있다.
디스플레이 자세 결정부는 영상 인식부 또는 음성 인식부 중 적어도 하나로부터 수신된 정보에 기초하여 디스플레이(130)의 자세를 결정할 수 있다. 예를 들어, 디스플레이 자세 결정부는 영상 인식부로부터 획득된 사용자의 자세에 기초하여 디스플레이(130)의 3축 각도 또는 높이 중 적어도 하나를 변경할 수 있다.
디스플레이 자세 결정부는 영상 인식부로부터 수신된 정보 및 사용자의 위치 공간 정보(semantic map)에 기초하여 디스플레이(130)의 자세를 결정할 수도 있다. 예를 들어, 디스플레이 자세 결정부는 사용자가 누운 자세이고 바닥에 누운 것으로 식별된 경우보다 사용자가 누운 자세이고 침대에 누운 것으로 식별된 경우에 디스플레이(130)의 자세를 높일 수 있다. 즉, 디스플레이 자세 결정부는 사용자의 자세 뿐만 아니라 사용자의 위치 공간 정보를 더 고려하여 디스플레이(130)의 자세를 결정할 수도 있다. 여기서, 위치 공간 정보는 신경망 모델을 통해 획득될 수 있다. 예를 들어, 위치 공간 정보를 출력하는 신경망 모델은 복수의 샘플 이미지와 복수의 샘플 이미지에 포함된 사용자가 위치한 공간에 대한 정보를 학습하여 획득된 모델일 수 있다.
디스플레이 자세 결정부는 영상 인식부로부터 수신된 정보 및 컨텐츠의 타입에 기초하여 디스플레이(130)의 자세를 결정할 수도 있다. 예를 들어, 디스플레이 자세 결정부는 사용자가 앉은 자세이고, 컨텐츠가 일반 동영상이면 디스플레이(130)의 화면에서 길이가 긴 부분이 지면에 평행한 자세로 결정하고, 사용자가 앉은 자세이고, 컨텐츠가 영상 통화 UI이면 디스플레이(130)의 화면에서 길이가 짧은 부분이 지면에 평행한 자세로 결정할 수도 있다.
이상에서는 디스플레이(130)의 자세를 결정하는 다양한 요소를 예로 들었으나, 이에 한정되는 것은 아니며, 얼마든지 다양한 파라미터가 디스플레이(130)의 자세를 결정하는 과정에서 이용될 수 있다. 예를 들어, 디스플레이 자세 결정부는 전자 장치(100) 주변의 조도를 식별하고, 조도를 더 고려하여 디스플레이(130)의 자세를 결정할 수도 있다. 가령, 디스플레이 자세 결정부는 조도가 낮은 경우, 조도가 상대적으로 높은 경우보다 디스플레이(130)를 기울여서 디스플레이(130)로부터 방사되는 광이 사용자의 눈에 직접 입사되는 것을 방지할 수도 있다.
또는, 디스플레이 자세 결정부는 복수의 사용자가 식별되면, 전자 장치(100)를 호출한 사용자를 식별하고, 전자 장치(100)를 호출한 사용자의 자세에 기초하여 디스플레이(130)의 자세를 식별할 수도 있다. 예를 들어, 디스플레이 자세 결정부는 스마트폰과 같은 사용자 단말 장치로부터 호출 신호가 수신되면, 복수의 사용자 중 스마트폰의 사용자를 전자 장치(100)를 호출한 사용자로 식별하고, 스마트폰의 사용자의 자세에 기초하여 디스플레이(130)의 자세를 식별할 수도 있다. 프로세서(140)는 복수의 사용자가 식별되어 전자 장치(100)를 호출한 사용자가 식별되지 않으면, 전자 장치(100)를 호출한 사용자를 문의하는 UI를 디스플레이하거나 전자 장치(100)를 호출한 사용자를 문의하는 사운드를 출력할 수도 있다. 또는, 프로세서(140)는 복수의 사용자가 식별되면, 전자 장치(100)의 호출이 개인 시청을 위한 것인지 또는 단체 시청을 위한 것인지 문의하는 UI를 디스플레이하거나 전자 장치(100)의 호출이 개인 시청을 위한 것인지 또는 단체 시청을 위한 것인지 문의하는 사운드를 출력할 수도 있다. 디스플레이 자세 결정부는 전자 장치(100)의 호출이 개인 시청을 위한 것임을 나타내는 사용자 명령이 수신되면, 사용자 명령을 제공한 사용자의 자세에 기초하여 전자 장치(100)의 위치를 이동하고, 디스플레이(130)의 자세를 변경할 수 있다. 디스플레이 자세 결정부는 전자 장치(100)의 호출이 단체 시청을 위한 것임을 나타내는 사용자 명령이 수신되면, 복수의 사용자의 위치에 기초하여 전자 장치(100)의 위치를 변경하고, 디스플레이(130)의 자세를 변경할 수 있다.
디스플레이 자세 결정부는 디스플레이 자세 구동부로 디스플레이(130)의 자세에 대한 정보를 제공하여 디스플레이(130)의 자세를 변경할 수 있다. 여기서, 디스플레이(130)의 자세에 대한 정보는 디스플레이(130)의 높이, 디스플레이(130)의 3축 각도 중 적어도 하나를 변경하기 위한 신호를 포함할 수 있다. 예를 들어, 디스플레이 자세 결정부는 디스플레이 자세 구동부로 디스플레이(130)의 높이를 2 단계 높이기 위한 제어 신호를 제공할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 디스플레이(130)의 자세를 결정하는 구체적인 방법을 설명하기 위한 흐름도이다.
먼저, 프로세서(140)는 카메라(110)를 통해 이미지를 촬영할 수 있다(S705). 예를 들어, 프로세서(140)는 사용자가 전자 장치(100)는 호출하는 경우, 카메라(110)를 통해 이미지를 촬영할 수 있다. 프로세서(140)는 기설정된 시간 간격으로 이미지를 촬영하거나 동영상을 촬영할 수도 있다.
프로세서(140)는 촬영된 이미지로부터 복수의 파라미터를 추출할 수 있다(S710). 예를 들어, 프로세서(140)는 사용자의 위치, 눈의 높이, 머리의 배향, 몸의 배향, 키포인트 중 적어도 하나를 식별할 수 있다. 또는, 프로세서(140)는 센서를 통해 파라미터를 추출할 수도 있다. 예를 들어, 카메라(110)는 뎁스 카메라를 더 포함하며, 프로세서(140)는 뎁스 카메라를 통해 전방의 피사체에 대한 3차원 정보를 획득할 수 있다. 이 경우, 복수의 파라미터 각각은 3차원 공간에서의 데이터로서 표현될 수도 있다.
프로세서(140)는 복수의 파라미터에 기초하여 사용자의 자세를 식별할 수 있다(S720). 예를 들어, 프로세서(140)는 복수의 파라미터에 기초하여 사용자의 자세를 앉은 자세, 선 자세 및 누운 자세 중 하나로 식별할 수 있다. 가령, 프로세서(140)는 사용자의 위치가 침대나 쇼파인 경우, 사용자의 자세 중 선 자세를 제외하고, 사용자의 눈의 높이, 머리의 배향, 몸의 배향 등에 기초하여 사용자가 앉은 자세인지 누운 자세인지 식별할 수 있다. 즉, 프로세서(140)는 복수의 파라미터를 단계적으로 이용하여 사용자의 자세를 식별할 수도 있다. 다만, 이에 한정되는 것은 아니며, 사용자의 자세는 좀더 세분화될 수도 있다.
또는, 프로세서(140)는 복수의 파라미터 중 눈 높이의 변화, 머리의 배향의 변화 또는 몸의 배향의 변화 또는 중 적어도 하나에 기초하여 사용자의 자세를 식별할 수도 있다. 이 경우, 프로세서(140)는 복수의 이미지를 촬영하도록 카메라(110)를 제어하고, 복수의 이미지로부터 사용자와 관련된 복수의 파라미터의 변화를 식별할 수 있다.
또는, 프로세서(140)는 복수의 파라미터 각각에 기초하여 복수의 자세 각각에 스코어를 부여하고, 최종적으로 스코어가 가장 높은 자세를 사용자의 자세로 식별할 수 있다. 예를 들어, 프로세서(140)는 사용자의 위치가 침대나 쇼파인 경우, 앉은 자세 및 누운 자세에 각각 1점을 부여하고, 사용자의 눈의 높이가 지면으로부터 1m 이상이면, 앉은 자세 및 선 자세에 각각 1점을 부여할 수 있다. 프로세서(140)는 이러한 방식으로 복수의 파라미터 각각에 기초하여 복수의 자세 각각에 스코어를 부여한 후, 사용자의 자세를 식별할 수도 있다.
또는, 프로세서(140)는 신경망 모델을 통해 사용자의 자세를 식별할 수도 있다. 예를 들어, 신경망 모델은 사용자와 관련된 복수의 파라미터 및 사용자의 자세의 관계를 학습한 모델이고, 프로세서(140)는 복수의 파라미터를 신경망 모델에 입력하여 사용자의 자세를 식별할 수도 있다.
프로세서(140)는 사용자가 제1 자세라고 식별되면, 복수의 파라미터 중 적어도 하나의 제1 파라미터에 기초하여 디스플레이(130)의 자세를 결정할 수 있다(S760). 예를 들어, 프로세서(140)는 사용자가 앉은 자세라고 식별되면, 복수의 파라미터 중 눈의 높이, 위치, 머리/몸의 배향을 나타내는 yaw 각도, picth 각도, roll 각도, 에 기초하여(S730) 디스플레이(130)의 자세를 결정할 수 있다(S760). 가령, 프로세서(140)는 앉은 자세의 경우 몸은 의자에 고정된 상태이나 머리는 자유롭게 움직이는 상태일 수 있으므로, 머리/몸의 배향을 모두 고려하여 디스플레이(130)의 자세를 결정할 수 있다.
또는, 프로세서(140)는 사용자가 제2 자세라고 식별되면, 복수의 파라미터 중 적어도 하나의 제2 파라미터에 기초하여 디스플레이(130)의 자세를 결정할 수도 있다(S760). 예를 들어, 프로세서(140)는 사용자가 선 자세라고 식별되면, 복수의 파라미터 중 눈의 높이, 위치, 몸의 배향을 나타내는 yaw 각도에 기초하여(S740) 디스플레이(130)의 자세를 결정할 수 있다(S760). 가령, 프로세서(140)는 선 자세의 경우 몸을 자유롭게 움직일 수 있으므로 가장 자연스러운 자세가 된다는 전제 하에, 몸의 배향을 나타내는 yaw 각도만을 고려하여 디스플레이(130)의 자세를 결정할 수 있다.
또는, 프로세서(140)는 사용자가 제3 자세라고 식별되면, 복수의 파라미터 중 적어도 하나의 제3 파라미터에 기초하여 디스플레이(130)의 자세를 결정할 수도 있다(S760). 예를 들어, 프로세서(140)는 사용자가 누운 자세라고 식별되면, 복수의 파라미터 중 눈의 높이, 위치, 몸의 배향을 나타내는 yaw 각도, roll 각도에 기초하여(S750) 디스플레이(130)의 자세를 결정할 수 있다(S760). 가령, 프로세서(140)는 누운 자세의 경우 머리가 자유롭게 움직일 수 없는 상태이므로, 몸의 배향을 나타내는 yaw 각도, roll 각도를 고려하여 디스플레이(130)의 자세를 결정할 수 있다.
즉, 사용자의 자세를 식별하는 경우에 이용되는 파라미터와 사용자의 자세가 식별된 후 디스플레이(130)의 자세를 결정하는 경우에 이용되는 파라미터는 상이할 수 있다.
다만, 이에 한정되는 것은 아니며, 사용자의 자세 및 디스플레이(130)의 자세를 결정하는 방법은 얼마든지 다양할 수도 있다. 예를 들어, 전자 장치(100)는 복수의 마이크를 포함하고, 프로세서(140)는 복수의 마이크를 통해 사용자의 입의 방향을 식별할 수 있다. 예를 들어, 프로세서(140)는 전자 장치(100)를 호출하는 사용자 음성이 복수의 마이크를 통해 수신되면, 복수의 마이크를 통해 사용자의 입의 방향을 식별하고, 사용자의 입의 방향에 기초하여 사용자의 자세를 앉은 자세, 선 자세 및 누운 자세 중 하나로 식별하고, 사용자의 위치에 기초하여 전자 장치(100)의 위치를 변경하고, 사용자의 식별된 자세에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다.
도 8은 본 개시의 일 실시 예에 따른 사용자의 자세에 따른 전자 장치(100)의 위치를 결정하는 방법을 설명하기 위한 도면이다.
프로세서(140)는 사용자의 자세에 기초하여 전자 장치(100)의 위치를 변경할 수 있다. 예를 들어, 프로세서(140)는 사용자와의 기준 거리만큼 전자 장치(100)를 이격하도록 전자 장치(100)의 위치를 변경할 수 있다. 여기서, 기준 거리는 사용자의 자세와 무관하게 일정할 수 있다. 이를 위해, 프로세서(140)는 사용자의 상체의 기울기에 기초하여 사용자의 머리와 전자 장치(100)의 거리를 보정할 수 있다. 가령, 프로세서(140)는 도 8의 상단과 같이, 사용자의 상체가 기울어지지 않은 경우, 사용자의 머리에 기초하여 전자 장치(100)의 위치를 변경하여 사용자의 머리와 전자 장치(100)의 거리를 기설정된 기준 거리로 유지할 수 있다. 또는, 프로세서(140)는 도 8의 하단과 같이, 사용자의 상체가 기울어져 있는 경우, 사용자의 상체의 기울기에 기초하여 사용자의 머리와 전자 장치(100)의 거리를 보정할 수 있다.
다만, 이에 한정되는 것은 아니며, 프로세서(140)는 사용자의 머리가 아닌 다른 지점을 기준으로 전자 장치(100)의 위치를 변경할 수도 있다.
또는, 프로세서(140)는 사용자의 상체의 기울기를 고려하지 않고, 사용자의 눈의 위치에 기초하여 전자 장치(100)의 위치를 변경할 수도 있다. 이 경우, 전자 장치(100)는 사용자의 눈으로부터 일정한 거리에 이격된 상태일 수 있다.
한편, 카메라(110)는 디스플레이(130)의 일측에 배치되고, 프로세서(140)는 사용자 또는 사용자의 기설정된 신체가 촬영된 이미지에서 기설정된 영역 내에 포함되도록 디스플레이(130)를 변경할 수도 있다. 예를 들어, 도 8에서 카메라(110)는 디스플레이(130)에서 광이 방출되는 방향을 촬영하도록 배치되며, 삼각형 음영으로 표현된 부분이 카메라(110)의 FoV(field of view)를 나타낸다. 프로세서(140)는 사용자의 자세에 기초하여 디스플레이(130)의 자세를 변경하는 경우에도 사용자의 머리가 FoV 내에 위치하도록 디스플레이(130)의 자세를 변경할 수 있다. 즉, 디스플레이(130)의 자세 변경은 사용자의 머리가 FoV 내에 위치해야 하는 제한이 있을 수도 있다.
도 9는 본 개시의 일 실시 예에 따른 디스플레이(130)의 roll 각도 제어를 설명하기 위한 도면이다.
프로세서(140)는 사용자의 머리의 배향에 기초하여 디스플레이(130)의 roll 각도를 제어할 수 있다. 예를 들어, 도 9에서는 수평 방향을 기준으로 사용자의 두 눈을 잇는 선이 0도, 45도, -45도, 90도인 경우 각각의 디스플레이(130)의 roll 각도를 나타내었다.
프로세서(140)는 사용자의 두 눈에 기초하여 사용자의 머리의 배향을 식별할 수 있다. 프로세서(140)는 사용자의 머리의 배향이 변경되면, 변경된 사용자의 머리의 배향에 기초하여 디스플레이(130)의 roll 각도를 변경할 수 있다. 이 경우, 프로세서(140)는 카메라(110)를 통해 전자 장치(100)의 전방을 기설정된 시간 간격으로 촬영하고, 기설정된 시간 간격으로 촬영된 이미지로부터 사용자의 머리의 배향의 변경을 식별할 수 있다.
또는, 프로세서(140)는 사용자의 머리의 배향이 변경되고 기설정된 시간이 경과하면, 변경된 사용자의 머리의 배향에 기초하여 디스플레이(130)의 roll 각도를 변경할 수도 있다. 예를 들어, 프로세서(140)는 사용자의 머리의 배향이 변경되고 10초가 경과하면, 변경된 사용자의 머리의 배향에 기초하여 디스플레이(130)의 roll 각도를 변경할 수도 있다. 사용자의 머리의 배향에 따라 지연 없이 연속적으로 디스플레이(130)의 roll 각도가 변경되면, 사용자의 시청 방해가 있을 수 있으며, 기설정된 시간이라는 조건에 따라 이러한 문제를 해결할 수 있다.
또는, 프로세서(140)는 사용자의 머리의 배향 변경이 기설정된 크기 이상이면, 변경된 사용자의 머리의 배향에 기초하여 디스플레이(130)의 roll 각도를 변경할 수도 있다. 사용자의 머리가 완전이 움직이지 않는 것은 불가능하며, 이 경우 사용자의 의도와는 무관한 미세 움직임으로 인해, 디스플레이(130)의 roll 각도가 변경되면, 사용자의 시청 방해가 있을 수 있으며, 사용자의 머리의 배향 변경이 기설정된 크기 이상이라는 조건에 따라 이러한 문제를 해결할 수 있다.
또는, 프로세서(140)는 사용자의 머리의 배향 변경이 기설정된 크기 이상이고, 기설정된 시간이 경과하면, 변경된 사용자의 머리의 배향에 기초하여 디스플레이(130)의 roll 각도를 변경할 수도 있다.
도 10 및 도 11은 본 개시의 일 실시 예에 따른 예측 동작을 설명하기 위한 도면들이다.
프로세서(140)는 사용자의 자세에 기초하여 디스플레이(130)의 자세를 변경할 수 있다. 예를 들어, 프로세서(140)는 도 10에 도시된 바와 같이, 사용자의 자세가 1010 자세에서 1020 자세를 거쳐 1030 자세가 되는 경우, 디스플레이(130)의 자세를 각 자세에 대응되도록 변경할 수 있다.
여기서, 디스플레이(130)의 자세를 변경하는 디스플레이 자세 구동부(190)는 적어도 하나의 모터를 포함할 수 있으며, 기계적인 동작에 따라 지연이 발생할 수 있다. 또한, 프로세서(140)가 사용자의 자세 변경에 따라 디스플레이(130)의 자세를 변경하는 것으로 식별하는 동작에도 지연이 발생할 수 있다. 결과적으로, 사용자의 자세 변경에 따른 지연이 발생함에 따라 사용자의 자세 변경에 대한 디스플레이(130)의 자세 변경은 지연될 수 있다.
다만, 디스플레이(130)의 자세 변경이 사용자의 의도를 반영하기 위해서는 어느 정도의 지연은 필요하나, 사용자의 자세 변경이 일정한 규칙성이 있다면 이를 미리 반영할 수는 있다.
이를 위해, 프로세서(140)는 카메라(110)를 통해 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득하고, 복수의 이미지에 기초하여 현재 시점으로부터 기설정된 시점에서의 사용자의 예측 자세를 획득하고, 사용자의 자세 및 사용자의 예측 자세에 기초하여 디스플레이(130)의 자세를 변경할 수 있다.
예를 들어, 프로세서(140)는 도 11에 도시된 바와 같이, 사용자의 자세가 1110 자세에서 1120 자세, 1130 자세를 거쳐 1140 자세로 되는 경우, 프로세서(140)는 1110 자세에서 1140 자세로 변경되는 과정의 특정 시점에서는 가령, 1130 자세의 시점에서는 1140 자세로 변경될 것을 예측할 수 있다. 그에 따라, 프로세서(140)는 1130 자세의 시점에서도 1140 자세를 기준으로 디스플레이(130)의 yaw 각도를 변경할 수도 있다.
도 12 및 도 13은 본 개시의 일 실시 예에 따른 컨텐츠의 타입에 따른 동작을 설명하기 위한 도면들이다.
프로세서(140)는 사용자 명령에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다. 예를 들어, 사용자가 도 12의 좌측과 같은 디스플레이(130)의 자세에서 컨텐츠를 시청하는 중에 "전체화면으로 보여줘"라는 사용자 명령을 입력할 수 있으며, 이 경우 프로세서(140)는 도 12의 우측과 같이 디스플레이(130)의 자세를 변경할 수 있다. 프로세서(140)는 사용자 명령이 입력된 시점의 컨텐츠의 타입 또는 컨텐츠를 제공하는 어플리케이션에 대한 정보를 메모리(170)에 저장할 수 있다. 이후, 프로세서(140)는 도 12의 좌측과 같은 디스플레이(130)의 자세에서 메모리(170)에 저장된 컨텐츠의 타입과 동일한 컨텐츠 또는 메모리(170)에 저장된 어플리케이션에서 제공하는 컨텐츠가 재생되는 경우, 도 12의 우측과 같이 자동으로 디스플레이(130)의 자세를 변경할 수도 있다.
또는, 프로세서(140)는 도 13의 좌측과 같이, 컨텐츠를 시청하는 중에 "영상통화 연결해줘"와 같은 사용자 명령이 수신되면, 도 13의 우측과 같이 디스플레이(130)의 자세를 변경할 수도 있다.
도 14는 본 개시의 일 실시 예에 따른 사용자에 따른 적응적인 동작을 설명하기 위한 도면이다.
프로세서(140)는 사용자의 자세에 기초하여 디스플레이(130)의 자세를 변경할 수 있다(자동 View Adjustment, 1410).
이후, 프로세서(140)는 사용자의 제스쳐(1420-1) 또는 사용자의 음성 명령(1420-2) 중 적어도 하나에 기초하여 디스플레이(130)의 자세를 변경할 수도 있다. 이 경우, 프로세서(140)는 사용자의 제스쳐(1420-1) 또는 사용자의 음성 명령(1420-2) 중 적어도 하나와 변경된 디스플레이(130)의 자세를 학습하고(1440), 이후 자동 View Adjustment 동작에 이용할 수 있다.
또는, 프로세서(140)는 사용자의 자세 변화 없이 일정 시간 이상 디스플레이(130)의 자세가 유지되면(1430), 사용자의 자세와 디스플레이(130)의 자세를 학습하고(1440), 이후 자동 View Adjustment 동작에 이용할 수도 있다.
도 15는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
먼저, 이미지를 촬영한다(S1510). 그리고, 촬영된 이미지에 포함된 사용자의 자세를 식별한다(S1520). 그리고, 사용자의 자세에 기초하여 사용자와 관련된 복수의 파라미터 중 적어도 하나의 파라미터를 식별한다(S1530). 그리고, 적어도 하나의 파라미터에 기초하여 전자 장치의 위치를 변경하고, 전자 장치에 포함된 디스플레이의 자세를 변경한다(S1540).
또한, 타 전자 장치로부터 전자 장치를 호출하는 사용자 명령이 수신되거나, 전자 장치에 포함된 마이크를 통해 전자 장치를 호출하는 사용자 음성이 수신되면, 사용자 명령 또는 사용자 음성에 기초하여 사용자를 향해 이동하는 단계를 더 포함하고, 촬영하는 단계는 전자 장치에 포함된 카메라를 턴 온시켜 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득할 수 있다.
그리고, 디스플레이의 자세를 변경하는 단계(S1540)는 복수의 이미지에 기초하여 사용자의 자세 및 사용자와의 거리를 식별하고, 사용자와의 거리가 사용자의 자세에 대응되는 거리이면, 전자 장치의 위치 변경을 정지할 수 있다.
또한, 사용자의 자세를 식별하는 단계(S1520)는 촬영된 이미지에 기초하여 사용자와 관련된 복수의 파라미터를 식별하고, 복수의 파라미터에 기초하여 사용자의 자세를 식별하고, 변경하는 단계(S1540)는 사용자의 자세가 제1 자세이면 복수의 파라미터 중 적어도 하나의 제1 파라미터에 기초하여 디스플레이의 자세를 변경하고, 사용자의 자세가 제2 자세이면 복수의 파라미터 중 적어도 하나의 제2 파라미터에 기초하여 디스플레이의 자세를 변경할 수 있다.
그리고, 컨텐츠를 디스플레이하는 단계를 더 포함하며, 변경하는 단계(S1540)는 컨텐츠의 타입 및 사용자의 자세에 기초하여 디스플레이의 자세를 변경할 수 있다.
또한, 변경하는 단계(S1540)는 사용자의 자세가 변경되고 기설정된 시간이 경과하면, 변경된 사용자의 자세에 기초하여 디스플레이의 자세를 변경할 수 있다.
그리고, 촬영하는 단계(S1510)는 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득하고, 사용자의 자세를 식별하는 단계(S1520)는 복수의 이미지에 기초하여 현재 시점으로부터 기설정된 시점에서의 사용자의 예측 자세를 획득하고, 변경하는 단계(S1540)는 사용자의 자세 및 사용자의 예측 자세에 기초하여 디스플레이의 자세를 변경할 수 있다.
또한, 식별하는 단계(S1520)는 촬영된 이미지를 제1 신경망 모델에 입력하여 사용자의 자세를 식별할 수 있다.
그리고, 변경하는 단계(S1540)는 복수의 파라미터를 제2 신경망 모델에 입력하여 디스플레이의 자세에 대한 정보를 획득하고, 디스플레이의 자세에 대한 정보에 기초하여 디스플레이의 자세를 변경할 수 있다.
또한, 디스플레이의 자세를 변경하는 사용자 명령이 수신되면, 사용자 명령에 기초하여 디스플레이의 자세를 변경하는 단계 및 복수의 파라미터 및 변경된 디스플레이의 자세에 기초하여 제2 신경망 모델을 업데이트하는 단계를 더 포함할 수 있다.
그리고, 촬영하는 단계(S1510)는 기설정된 시간 간격으로 이미지를 촬영하여 복수의 이미지를 획득하고, 변경하는 단계(S1540)는 복수의 이미지로부터 기설정된 사용자의 제스처가 식별되거나 디스플레이의 자세를 변경하는 사용자 음성이 수신되면, 제스처 또는 사용자 음성에 기초하여 디스플레이의 자세를 변경할 수 있다.
또한, 전자 장치에 포함된 카메라는 디스플레이의 일측에 배치되고, 변경하는 단계(S1540)는 사용자 또는 사용자의 기설정된 신체가 촬영된 이미지에서 기설정된 영역 내에 포함되도록 디스플레이의 자세를 변경할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 전자 장치는 사용자에게 최적화된 자세로 화면을 제공하여 사용자의 편의성을 향상시킬 수 있다.
또한, 전자 장치는 사용자의 자세와 디스플레이의 자세를 학습하여 사용자에게 적응적인 동작을 수행할 수도 있다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어로서 구현될 수도 있다. 소프트웨어 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 다양한 실시 예들에 따른 기기의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 기기에서의 처리 동작을 특정 기기가 수행하도록 한다. 비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 전자 장치 110 : 카메라
120 : 구동부 130 : 디스플레이
140 : 프로세서 150 : 통신 인터페이스
160 : 마이크 170 : 메모리
180 : 사용자 인터페이스 190 : 디스플레이 자세 구동부
195 : 스피커

Claims (20)

  1. 전자 장치에 있어서,
    카메라;
    구동부;
    디스플레이; 및
    상기 카메라, 상기 구동부 및 상기 디스플레이에 연결되어 상기 전자 장치를 제어하는 적어도 하나의 프로세서;를 포함하며,
    상기 프로세서는,
    상기 카메라를 통해 이미지를 촬영하고,
    상기 촬영된 이미지에 포함된 사용자의 자세를 식별하고,
    상기 사용자의 자세에 기초하여 상기 사용자와 관련된 복수의 파라미터 중 적어도 하나의 파라미터를 식별하고,
    상기 적어도 하나의 파라미터에 기초하여 상기 전자 장치의 위치를 변경하도록 상기 구동부를 제어하고, 상기 디스플레이의 자세를 변경하는, 전자 장치.
  2. 제1항에 있어서,
    통신 인터페이스; 및
    마이크;를 더 포함하며,
    상기 프로세서는,
    상기 통신 인터페이스를 통해 타 전자 장치로부터 상기 전자 장치를 호출하는 사용자 명령이 수신되거나, 상기 마이크를 통해 상기 전자 장치를 호출하는 사용자 음성이 수신되면, 상기 사용자 명령 또는 상기 사용자 음성에 기초하여 상기 사용자를 향해 이동하도록 상기 구동부를 제어하고,
    상기 카메라를 턴 온시켜 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 복수의 이미지에 기초하여 상기 사용자의 자세 및 상기 사용자와의 거리를 식별하고,
    상기 사용자와의 거리가 상기 사용자의 자세에 대응되는 거리이면, 상기 구동부의 동작을 정지하는, 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 촬영된 이미지에 기초하여 상기 사용자와 관련된 복수의 파라미터를 식별하고,
    상기 복수의 파라미터에 기초하여 상기 사용자의 자세를 식별하고,
    상기 사용자의 자세가 제1 자세이면 상기 복수의 파라미터 중 적어도 하나의 제1 파라미터에 기초하여 상기 디스플레이의 자세를 변경하고,
    상기 사용자의 자세가 제2 자세이면 상기 복수의 파라미터 중 적어도 하나의 제2 파라미터에 기초하여 상기 디스플레이의 자세를 변경하는, 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    컨텐츠를 디스플레이하도록 상기 디스플레이를 제어하고,
    상기 컨텐츠의 타입 및 상기 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경하는, 전자 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 사용자의 자세가 변경되고 기설정된 시간이 경과하면, 상기 변경된 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경하는, 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 카메라를 통해 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하고,
    상기 복수의 이미지에 기초하여 현재 시점으로부터 기설정된 시점에서의 상기 사용자의 예측 자세를 획득하고,
    상기 사용자의 자세 및 상기 사용자의 예측 자세에 기초하여 상기 디스플레이의 자세를 변경하는, 전자 장치.
  8. 제1항에 있어서,
    제1 신경망 모델이 저장된 메모리;를 더 포함하며,
    상기 프로세서는,
    상기 촬영된 이미지를 상기 제1 신경망 모델에 입력하여 상기 사용자의 자세를 식별하는, 전자 장치.
  9. 제1항에 있어서,
    제2 신경망 모델이 저장된 메모리;를 더 포함하며,
    상기 프로세서는,
    상기 복수의 파라미터를 상기 제2 신경망 모델에 입력하여 상기 디스플레이의 자세에 대한 정보를 획득하고,
    상기 디스플레이의 자세에 대한 정보에 기초하여 상기 디스플레이의 자세를 변경하는, 전자 장치.
  10. 제9항에 있어서,
    사용자 인터페이스;를 더 포함하며,
    상기 프로세서는,
    상기 사용자 인터페이스를 통해 상기 디스플레이의 자세를 변경하는 사용자 명령이 수신되면, 상기 사용자 명령에 기초하여 상기 디스플레이의 자세를 변경하고,
    상기 복수의 파라미터 및 상기 변경된 디스플레이의 자세에 기초하여 상기 제2 신경망 모델을 업데이트하는, 전자 장치.
  11. 제1항에 있어서,
    마이크;를 더 포함하며,
    상기 프로세서는,
    상기 카메라를 통해 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하고,
    상기 복수의 이미지로부터 기설정된 사용자의 제스처가 식별되거나 상기 마이크를 통해 상기 디스플레이의 자세를 변경하는 사용자 음성이 수신되면, 상기 제스처 또는 상기 사용자 음성에 기초하여 상기 디스플레이의 자세를 변경하는, 전자 장치.
  12. 제1항에 있어서,
    상기 카메라는,
    상기 디스플레이의 일측에 배치되고,
    상기 프로세서는,
    상기 사용자 또는 상기 사용자의 기설정된 신체가 상기 촬영된 이미지에서 기설정된 영역 내에 포함되도록 상기 디스플레이의 자세를 변경하는, 전자 장치.
  13. 제1항에 있어서,
    디스플레이 자세 구동부;를 더 포함하며,
    상기 프로세서는,
    상기 디스플레이의 자세를 변경하도록 상기 디스플레이 자세 구동부를 제어하는, 전자 장치.
  14. 제1항에 있어서,
    상기 프로세서는,
    상기 사용자의 자세 및 상기 사용자의 위치 이동에 기초하여 상기 전자 장치의 위치를 변경하도록 상기 구동부를 제어하는, 전자 장치.
  15. 전자 장치의 제어 방법에 있어서,
    이미지를 촬영하는 단계;
    상기 촬영된 이미지에 포함된 사용자의 자세를 식별하는 단계;
    상기 사용자의 자세에 기초하여 상기 사용자와 관련된 복수의 파라미터 중 적어도 하나의 파라미터를 식별하는 단계; 및
    상기 적어도 하나의 파라미터에 기초하여 상기 전자 장치의 위치를 변경하고, 상기 전자 장치에 포함된 디스플레이의 자세를 변경하는 단계;를 포함하는, 제어 방법.
  16. 제15항에 있어서,
    타 전자 장치로부터 상기 전자 장치를 호출하는 사용자 명령이 수신되거나, 상기 전자 장치에 포함된 마이크를 통해 상기 전자 장치를 호출하는 사용자 음성이 수신되면, 상기 사용자 명령 또는 상기 사용자 음성에 기초하여 상기 사용자를 향해 이동하는 단계;를 더 포함하고,
    상기 촬영하는 단계는,
    상기 전자 장치에 포함된 카메라를 턴 온시켜 기설정된 시간 간격으로 상기 이미지를 촬영하여 복수의 이미지를 획득하는, 제어 방법.
  17. 제16항에 있어서,
    상기 디스플레이의 자세를 변경하는 단계는,
    상기 복수의 이미지에 기초하여 상기 사용자의 자세 및 상기 사용자와의 거리를 식별하고,
    상기 사용자와의 거리가 상기 사용자의 자세에 대응되는 거리이면, 상기 전자 장치의 위치 변경을 정지하는, 제어 방법.
  18. 제15항에 있어서,
    상기 사용자의 자세를 식별하는 단계는,
    상기 촬영된 이미지에 기초하여 상기 사용자와 관련된 복수의 파라미터를 식별하고,
    상기 복수의 파라미터에 기초하여 상기 사용자의 자세를 식별하고,
    상기 변경하는 단계는,
    상기 사용자의 자세가 제1 자세이면 상기 복수의 파라미터 중 적어도 하나의 제1 파라미터에 기초하여 상기 디스플레이의 자세를 변경하고,
    상기 사용자의 자세가 제2 자세이면 상기 복수의 파라미터 중 적어도 하나의 제2 파라미터에 기초하여 상기 디스플레이의 자세를 변경하는, 제어 방법.
  19. 제15항에 있어서,
    컨텐츠를 디스플레이하는 단계;를 더 포함하며,
    상기 변경하는 단계는,
    상기 컨텐츠의 타입 및 상기 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경하는, 제어 방법.
  20. 제15항에 있어서,
    상기 변경하는 단계는,
    상기 사용자의 자세가 변경되고 기설정된 시간이 경과하면, 상기 변경된 사용자의 자세에 기초하여 상기 디스플레이의 자세를 변경하는, 제어 방법.
KR1020230004884A 2022-09-15 2023-01-12 사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법 KR20240037808A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2023/008415 WO2024058364A1 (ko) 2022-09-15 2023-06-19 사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법
US18/226,053 US20240094803A1 (en) 2022-09-15 2023-07-25 Electronic apparatus for providing screen in posture optimized for user and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220116651 2022-09-15
KR1020220116651 2022-09-15

Publications (1)

Publication Number Publication Date
KR20240037808A true KR20240037808A (ko) 2024-03-22

Family

ID=90481298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230004884A KR20240037808A (ko) 2022-09-15 2023-01-12 사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20240037808A (ko)

Similar Documents

Publication Publication Date Title
US20230156319A1 (en) Autonomous media capturing
US9952666B2 (en) Systems and methods of eye tracking control on mobile device
TWI549505B (zh) 用於擴展現實顯示的基於理解力和意圖的內容
US9836639B2 (en) Systems and methods of light modulation in eye tracking devices
CA2984147C (en) Privacy-sensitive consumer cameras coupled to augmented reality systems
CN103869468B (zh) 信息处理设备
CN110506249B (zh) 信息处理设备、信息处理方法和记录介质
US9342610B2 (en) Portals: registered objects as virtualized, personalized displays
JP2018099523A (ja) 物理オブジェクトの画像をフェードアウトする方法
US10313481B2 (en) Information processing method and system for executing the information method
US20130335405A1 (en) Virtual object generation within a virtual environment
KR20160135242A (ko) 시선 검출을 통한 원격 디바이스 제어
WO2022142388A1 (zh) 特效显示方法及电子设备
US20190058862A1 (en) Display apparatus and server, and control methods thereof
KR20210041757A (ko) 전자 장치 및 그 제어 방법
KR20240037808A (ko) 사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법
US20240094803A1 (en) Electronic apparatus for providing screen in posture optimized for user and control method thereof
KR20240009984A (ko) 전자 안경류 디바이스로부터 맥락에 맞는 시각 및 음성 검색
CN107844197A (zh) 虚拟现实场景显示方法及设备
KR20190006412A (ko) 전화 콘텐츠 디스플레이 및 건강 모니터링을 위한 웨어러블 증강현실 머리 착용 디스플레이 장치
WO2024058364A1 (ko) 사용자에게 최적화된 자세로 화면을 제공하기 위한 전자 장치 및 그 제어 방법
US20240069492A1 (en) Display apparatus for obtaining holographic resource and control method thereof
KR20240016843A (ko) Ar 객체를 표시하기 위한 디스플레이 장치 및 그 제어 방법
US20240087221A1 (en) Method and apparatus for determining persona of avatar object in virtual space
US20240037868A1 (en) Display apparatus for displaying augmented reality object and control method thereof