KR20240065344A - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20240065344A
KR20240065344A KR1020220144963A KR20220144963A KR20240065344A KR 20240065344 A KR20240065344 A KR 20240065344A KR 1020220144963 A KR1020220144963 A KR 1020220144963A KR 20220144963 A KR20220144963 A KR 20220144963A KR 20240065344 A KR20240065344 A KR 20240065344A
Authority
KR
South Korea
Prior art keywords
character
content
electronic device
display
information
Prior art date
Application number
KR1020220144963A
Other languages
English (en)
Inventor
황수현
김종필
김현태
손성도
윤수연
이동호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220144963A priority Critical patent/KR20240065344A/ko
Priority to PCT/KR2023/014162 priority patent/WO2024096311A1/ko
Publication of KR20240065344A publication Critical patent/KR20240065344A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 스피커, 디스플레이, 컨텐츠를 수신하는 통신 장치, 및 컨텐츠가 수신되면, 컨텐츠에 대응되는 소리가 출력되도록 스피커를 제어하는 프로세서를 포함하고, 프로세서는, 컨텐츠에 대응되는 메타 데이터를 이용하여 컨텐츠에 대응되는 캐릭터 UI를 생성하고, 생성된 캐릭터 UI가 표시되도록 디스플레이를 제어한다.

Description

전자 장치 및 그 제어 방법{ELECTRONIC APPARATUS AND METHOD FOR CONTROL THEREOF}
본 개시는 전자 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 컨텐츠에 대응되는 캐릭터 UI를 표시할 수 있는 전자 장치 및 그 제어 방법에 관한 것이다.
최근에 산업이 고도화함에 따라, 모든 전자기기가 아날로그에서 디지털화되고 있으며, 음향 기기의 경우에도 디지털화가 급속히 보급되어 음질의 향상을 추구하고 있다.
최근에는 기저장된 컨텐츠를 출력하는 것뿐만 아니라, 스트리밍 방식으로 제공되는 컨텐츠를 출력하는 것도 가능하다. 또한, 단순히 컨텐츠를 재생하는 용도뿐만 아니라, 어시스턴스 기능을 이용하여 다양한 동작을 수행할 수 있다.
본 개시의 일 실시 예에 따른 전자 장치는 스피커, 디스플레이, 컨텐츠를 수신하는 통신 장치, 및 상기 컨텐츠가 수신되면, 상기 컨텐츠에 대응되는 소리가 출력되도록 상기 스피커를 제어하는 프로세서를 포함한다.
이 경우, 상기 프로세서는, 상기 컨텐츠에 대응되는 메타 데이터를 이용하여 상기 컨텐츠에 대응되는 캐릭터 UI를 생성하고, 상기 생성된 캐릭터 UI가 표시되도록 상기 디스플레이를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은 컨텐츠 재생 명령이 입력되면, 상기 컨텐츠에 대응되는 소리를 출력하는 단계, 상기 컨텐츠에 대응되는 메타 데이터를 이용하여 상기 컨텐츠에 대응되는 캐릭터 UI를 생성하는 단계, 및 상기 생성된 캐릭터 UI를 표시하는 단계를 포함한다.
한편, 본 개시의 일 실시 예에 따른 캐릭터 표시 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체에 있어서, 상기 캐릭터 표시 방법은, 컨텐츠를 수신하는 단계, 상기 컨텐츠에 메타 데이터를 이용하여 상기 컨텐츠에 대응되는 캐릭터 UI를 생성하는 단계를 포함할 수 있다.
이 경우, 상기 캐릭터 UI를 생성하는 단계는, 상기 메타 데이터에 포함된 장르 정보, 가수 정보 및 제목 정보 중 적어도 하나를 이용하여 상기 캐릭터 UI에 적용될 소품 컨텐츠를 결정하고, 상기 결정된 소품 컨텐츠를 조합하여 상기 캐릭터 UI를 생성할 수 있다.
본 개시의 실시 예들의 상술하거나 다른 측면, 특징, 이익들은 첨부도면을 참조한 아래의 설명으로부터 더욱 명백해질 것이다. 첨부도면에서:
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 나타내는 도면,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 도면,
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 도면,
도 4는 본 개시의 일 실시 예에 따른 전자 장치의 디스플레이에 표시되는 UI 화면의 예를 도시한 도면,
도 5는 본 개시의 일 실시 예에 따른 전자 장치의 디스플레이에 표시되는 UI 화면의 예를 도시한 도면,
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 디스플레이에 표시되는 UI 화면의 예를 도시한 도면,
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 배치 방향에 따른 동작을 설명하기 위한 도면,
도 8은 본 개시의 일 실시 예에 따른 전자 장치의 배치 방향에 따른 동작을 설명하기 위한 도면,
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도, 그리고,
도 10은 본 개시의 일 실시 예에 따른 캐릭터 표시 방법을 설명하기 위한 흐름도이다.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.
덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상 "등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째, "등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않은 것으로 이해될 수 있다.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다.
대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다.
한편, 본 개시의 다양한 실시 예에 따른 전자 장치는 예를 들면, 스피커, AI 스피커, 사운드 바, 홈시어터, 셋톱 박스, 스마트폰, 태블릿 PC, 데스크탑 PC, 랩탑 PC 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 예를 들면, 텔레비전, 모니터, 프로젝터 DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다. 한편, 구현시에는 상술한 예들 뿐만 아니라, 디스플레이 및 스피커를 포함하는 장치인 경우라면, 본 개시에 따른 전자 장치일 수 있다.
이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 나타내는 도면이다.
도 1을 참조하면, 전자 장치(100)는 어시스턴스 기능을 수행한다. 여기서 어시스턴스(assistant) 기능은 AI 기술을 이용하여 사용자가 정확한 명령을 입력하지 않은 경우에도, 사용자가 원하는 기능을 수행할 수 있도록 도움을 주는 기능이다. 이러한 어시스턴스 기능은 컨텐츠 재생, 스케줄 관리, 정보 검색 등 다양한 분야에 적용되고 있다.
예를 들어, 음악을 듣고 싶은 경우, 기존에는 사용자가 듣고 싶은 음악을 정확하게 지정하여야 하였다. 그러나 어시스턴스 기능을 이용하면 사용자가 평소에 듣는 음악 취향에 대응되는 음악을 자동으로 선별되어 재생될 수 있다.
이와 같은 어시스턴스 기능은 사용자의 음성 명령을 기초로 동작할 수 있다. 기존에는 어시스턴스 기능이 활성화되면 단순히 발광소자에 빛을 발광하는 등의 단순한 표시 동작만을 수행하였다.
이에 따라, 사용자는 어시스턴스 기능을 수행하는 전자 장치를 친밀하게 느끼기 어려웠다.
본 개시에서는 사용자가 어시스턴스 기능의 수행 과정에서 전자 장치를 보다 친밀하게 느끼고, 재미있는 인터렉션을 느낄 수 있도록 캐릭터 UI를 이용한다.
따라서, 도 1에 도시된 바와 같이 전자 장치(100)는 디스플레이를 포함하고, 어시스턴스 기능 시에 캐릭터 UI를 표시한다. 표시되는 캐릭터 UI는 사용자, 현재 재생 중인 컨텐츠, 액세서리 등에 의하여 다양하게 변경될 수 있다.
예를 들어, 사용자가 전자 장치(100)를 이용하여 클래식 음악을 청취 중에 어시스턴스 기능을 활성화하면, 클래식 음악에 대응되는 캐릭터 UI를 표시할 수 있다. 또는 사용자가 전자 장치(100)를 이용하여 아이들이 선호하는 컨텐츠를 출력하는 중에는 아이들이 선호하는 캐릭터 UI를 표시할 수 있다.
또한, 전자 장치(100)는 어시스턴스 기능 수행 과정에서 캐릭터 UI를 생동감 있게 표현할 수 있다. 예를 들어, 사용자의 발화를 이해하지 못하거나, 정확한 음성 인식을 수행하지 못한 경우, 전자 장치(100)는 "?" 를 캐릭터와 함께 표시하거나, 이해하지 못한 표정을 갖는 캐릭터 UI를 표시할 수 있다. 또는 항공권 예약 등 여행과 관련된 어시스턴스 기능을 수행 중이라면, 전자 장치(100)는 비행기 기장 모자를 쓰고 있는 캐릭터 UI를 표시할 수 있다. 또는 영화 예약을 진행하기 위한 어시스턴스 기능을 수행 중에, 전자 장치(100)는 현재 상영되는 영화(또는 사용자가 예매하려고 하는 영화)의 특정 캐릭터에 대응되는 캐릭터 UI를 표시할 수도 있다. 이와 같은 사항들은 예시에 불가하고, 전자 장치(100)는 다양한 어시스턴스 기능에 대응되는 다양한 캐릭터 UI를 표시할 수 있다.
여기서 캐릭터 UI의 변경은 캐릭터(또는 AI 캐릭터)의 외형이 변경되는 경우뿐만 아니라, 동일한 캐릭터가 착용하는 소품, 헤어, 배경, 캐릭터의 피부색, 피부 상태(예를 들어, 땀흘림, 홍조 등) 등이 변경되는 경우를 포함할 수 있다.
이와 같이 본 개시에 따른 전자 장치(100)는 어시스턴스 기능 중에 캐릭터 UI를 표시하는바, 사용자는 어시스턴스 기능 사용에 대해서 더욱 친밀한 감정을 갖는 것이 가능하다.
한편, 도 1에서는 어시스턴스 기능 수행 중에만 캐릭터 UI를 표시하는 것으로 설명하였지만, 어시스턴스 기능 수행 과정뿐만 아니라, 전자 장치(100)의 기본 동작 중에도 표시될 수 있다.
한편, 도 1에서는 어시스턴스 기능이 음성 명령을 통해서 동작되는 것으로 설명하였지만, 구현시에는 음성 명령뿐만 아니라, 사용자의 직접적인 조작(예를 들어, 버튼 조작, 텍스트 입력, 센서 조작)등으로 동작될 수 있으며, 음성 명령과 상술한 조작이 결합된 형태로 사용자 명령을 입력받을 수 있다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 전자 장치(100)는 통신 장치(110), 디스플레이(120), 스피커(130) 및 프로세서(140)를 포함한다.
통신 장치(110)는 적어도 하나의 회로를 포함하며 다양한 유형의 외부 장치와 통신을 수행할 수 있다. 이와 같은 통신 장치(110)는 구현 예에 따라 다양한 인터페이스로 구현될 수 있다. 예를 들어 통신 장치(110)는 다양한 타입의 디지털 인터페이스, AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), NFC(Near Field Communication), IEEE 1394 중 적어도 하나의 인터페이스를 포함할 수 있다.
또한, 통신 장치(110)는 HDMI(High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP(Display Port), 썬더볼트(Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(D-subminiature), DVI(Digital Visual Interface), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 중 적어도 하나의 인터페이스를 포함할 수 있다.
통신 장치(110)는 컨텐츠를 수신한다. 여기서 컨텐츠는 음악 컨텐츠, 동영상 컨텐츠 등을 포함할 수 있다. 그리고 음악 컨텐츠는 해당 음악에 대한 정보를 갖는 메타 데이터(가수, 장르, 음악 제목 등을 포함하는 데이터)를 포함할 수 있다. 또한, 동영상 컨텐츠도 컨텐츠 상세 정보(예를 들어, 감독, 제목 정보 등)를 포함할 수 있다.
이하에서는 음원 데이터를 갖는 컨텐츠를 수신하는 경우를 가정하여 설명한다. 구현시에는 해당 컨텐츠는 음원 데이터를 포함하지 않는 컨텐츠(예를 들어, 사진, 텍스트, e-book 등)일 수도 있다.
통신 장치(110)는 외부 서버와 통신할 수 있으며, 어시스턴스 기능 수행을 위한 각종 데이터를 송수신할 수 있다. 예를 들어, 통신 장치(110)는 사용자 발화 음성에 대응되는 오디오 신호 또는 해당 오디오 신호가 텍스트로 변환된 텍스트 정보를 외부 서버에 전송할 수 있다. 그리고 통신 장치(110)는 전송한 정보에 대응되는 응답 컨텐츠를 수신할 수 있다. 예를 들어, 사용자가 "음악 A 틀어줘"와 같은 음성을 발화한 경우, 통신 장치(110)는 음악 A에 대응되는 컨텐츠를 수신할 수 있다.
한편, 이와 같은 동작을 수행하는 경우, 상술한 발화 음성 또는 텍스트를 전송한 외부 서버와 이에 대한 응답 컨텐츠를 제공하는 외부 서버는 상호 상이할 수 있다. 즉, 상술한 발화 음성 또는 텍스트를 전송하는 외부 서버는 음성 인식 기능을 수행하는 서버일 수 있으며, 컨텐츠를 제공하는 외부 서버는 컨텐츠 제공 서버일 수 있다.
이와 같이 서로 다른 외부 서버가 연동하여 동작하는 경우, 전자 장치(100)는 별도의 개입 없이 컨텐츠 제공 서버로부터 직접 컨텐츠를 수신할 수 있으며, 음성 인식 기능을 수행하는 서버로부터 응답 메시지를 수신하고, 수신한 응답 메시지에 대응되는 요청 메시지를 컨텐츠 제공 서버에 제공하여 컨텐츠를 수신할 수도 있다. 예를 들어, 음성 인식을 수행하는 외부 서버는 A 음악 컨텐츠 재생이라는 응답 메시지를 생성하여, 전자 장치(100)에 제공할 수 있다. 이 경우, 전자 장치(100)는 컨텐츠 제공 서버에 A 음악 컨텐츠를 요청하여 수신할 수 있다. 또는 음성 인식을 수행하는 외부 서버가 직접 컨텐츠 제공 서버에 A 음악 컨텐츠를 전자 장치(100)에 제공하라는 명령을 전송할 수 있다. 이 경우, 전자 장치(100)는 바로 A 음악 컨텐츠를 수신할 수도 있다.
또한, 통신 장치(110)는 음성 인식 결과에 대응되는 명령을 수행하기 위한 정보 요청을 전송할 수 있다. 예를 들어, 사용자가 오늘 날씨를 요청한 경우, 전자 장치(100)는 오늘 날씨 정보를 출력해야 함을 인식하고, 외부 서버에 오늘 날씨에 대한 정보를 요청하여 수신할 수도 있다.
그리고 통신 장치(110)는 캐릭터 UI와 관련된 각종 데이터를 송수신할 수 있다. 예를 들어, 캐릭터 UI는 캐릭터 형상 데이터, 배경 데이터, 소품 데이터(구체적으로, 헤어 데이터, 눈 관련(또는 안경) 데이터, 피부 데이터)로 구성될 수 있으며, 상술한 형상, 배경, 소품 등과 관련된 데이터를 요청하는 정보를 외부 서버에 전송할 수 있다.
그리고 통신 장치(110)는 상술한 캐릭터 UI를 구성하는 각종 데이터와 컨텐츠와의 관계에 대한 정보(예를 들어, 룩업 테이블)를 송수신할 수 있다. 또한, 통신 장치(110)는 상술한 룩업 테이블을 외부 서버로부터 수신하기 위한 정보(예를 들어, 메타 데이터)를 상술한 외부 서버에 전송할 수 있다.
한편, 구현시에는 수신한 정보를 그대로 전송할 수도 있으며, 가공하여 전송할 수도 있다. 예를 들어, 메타 데이터에 포함된 여러 정보 중 주요한 정보만을 추출하는 딥 러닝 모델을 이용하여, 메타 데이터에 포함된 여러 정보 중 일부 정보만을 추출할 수도 있다.
또한, 구현시에는 메타 데이터 이외에 컨텐츠와 관련된 다양한 정보가 이용될 수 있으며, 해당 정보도 앞서 설명한 바와 같이 해당 정보를 그대로 이용하거나 가공하여 외부 서버에 전송할 수 있다. 또한, 상술한 정보는 수신한 컨텐츠 정보뿐만 아니라 추가 정보(예를 들어, 현재 컨텐츠를 시청/또는 청취하는 사용자와 관련된 정보, 시간 정보, 날씨 정보 등)을 포함할 수도 있다.
디스플레이(120)는 프로세서(140)로부터 신호를 수신하고, 수신된 신호에 대응하는 정보를 표시할 수 있다. 예를 들어, 디스플레이(120)는 자발광 소자를 포함하는 디스플레이 또는, 비자발광 소자 및 백라이트를 포함하는 디스플레이로 구현될 수 있다.
예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, LED(Light Emitting Diodes), 마이크로 LED(micro LED), Mini LED, PDP(Plasma Display Panel), QD(Quantum dot) 디스플레이, QLED(Quantum dot light-emitting diodes), 프로젝터 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 롤러블 디스플레이(rollable display), 3차원 디스플레이(3D display), 복수의 디스플레이 모듈이 물리적으로 연결된 디스플레이 등으로 구현될 수 있다.
그리고 디스플레이(120)는 컨텐츠와 관련된 정보를 표시할 수 있다. 예를 들어, 전자 장치(100)가 특정 음악을 재생 중인 경우, 해당 음악에 대한 커버 이미지를 표시할 수 있다. 이때, 디스플레이(120)는 해당 이미지를 사진 형태로 표시할 수도 있으며, CD가 회전하는 형태와 같이 동영상 형상으로 표시할 수도 있다.
이와 같이 커버 이미지를 표시하는 예에 대해서는 도 4를 참조하여 후술한다. 또한, 디스플레이(120)는 영화와 같은 동영상을 표시하는 경우, 해당 동영상에 대한 포스터를 표시할 수도 있다. 이와 같은 커버 이미지, 포스터 등은 수신한 컨텐츠에 포함되어 있을 수 있다.
그리고 디스플레이(120)는 캐릭터 UI를 표시할 수 있다. 이때, 디스플레이(120)는 상술한 캐릭터 UI를 사진과 같은 형태로 표시할 수도 있으며, 일정 부분이 움직이는 것처럼 보이는 동영상 형태로 표시할 수도 있다. 예를 들어, 도 1과 같은 캐릭터를 표시한다면, 일정 시간마다 눈을 깜빡이거나, 윙크하거나, 하품하는 등의 다양한 얼굴 표정을 짖는 동영상을 표시할 수도 있다.
그리고 디스플레이(120)는 사용자 요청에 대응되는 각종 정보를 표시할 수 있다. 예를 들어, 사용자가 어시스턴스 기능을 통하여 날씨 정보를 요청한 경우, 날씨와 관련된 정보를 표시할 수 있다.
스피커(130)는 컨텐츠에 대응되는 소리를 출력한다. 그리고 스피커(130)는 각종 안내 메시지 또는 수신한 응답 메시지에 대응되는 응답 정보를 소리로 출력할 수 있다. 스피커(130)는 복수의 스피커 유닛으로 구성될 수 있으며, 이에 대해서는 도 3을 참조하여 후술한다.
프로세서(140)는 전자 장치(100)의 각 구성을 제어한다. 이러한 프로세서(140)는 메모리와 제어 유닛으로 구성될 수 있다. 이러한 프로세서(140)는 제어부, 제어 장치 등으로 지칭될 수도 있다.
메모리는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)와 통신 가능한(또는 탈부착 가능한) 메모리 형태로 구현될 수도 있다.
예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)와 통신 가능한 메모리에 저장될 수 있다. 한편, 전자 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 전자 장치(100)와 통신 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
일 예에 따라 메모리(110)는 전자 장치(100)를 제어하기 위한 적어도 하나의 인스트럭션(instruction) 또는 인스트럭션들을 포함하는 컴퓨터 프로그램을 저장할 수 있다. 이러한 컴퓨터 프로그램은 캐릭터 UI를 생성하기 위한 프로그램, 음성 인식을 위한 프로그램, 어시스턴스 기능을 수행하기 위한 프로그램, 컨텐츠 재생을 위한 프로그램 등일 수 있다.
다른 예에 따라, 메모리는 복수의 레이어를 포함하는 인공 지능 모델에 관한 정보를 저장할 수 있다. 여기서, 인공 지능 모델에 관한 정보를 저장한다는 것은 인공 지능 모델의 동작과 관련된 다양한 정보, 예를 들어 인공 지능 모델에 포함된 복수의 레이어에 대한 정보, 복수의 레이어 각각에서 이용되는 파라미터(예를 들어, 필터 계수, 바이어스 등)에 대한 정보 등을 저장한다는 것을 의미할 수 있다. 예를 들어, 이러한 인공지능 모델은 음성 인식을 위한 모델 또는 어시스턴스 기능을 위한 모델일 수 있다.
일 실시 예에 따르면, 메모리는 본 개시에 따른 다양한 동작들에서 생성되는 데이터를 저장하는 단일 메모리로 구현될 수 있다. 다만, 다른 실시 예에 따르면, 메모리(110)는 상이한 타입의 데이터를 각각 저장하거나, 상이한 단계에서 생성되는 데이터를 각각 저장하는 복수의 메모리를 포함하도록 구현될 수도 있다.
그리고 메모리는 캐릭터 UI를 구성하는 데이터를 저장할 수 있다. 이러한 캐릭터 UI는 복수의 레이어로 구성될 수 있다. 예를 들어, 복수의 레이어 각각은 캐릭터 형상, 각종 소품(헤어, 눈(안경 또는 눈 모양), 피부(피부색, 홍조, 땀), 배경 등으로 구분될 수 있으며, 각 레이어 별로 복수의 데이터가 저장되어 있을 수 있다. 따라서, 캐릭터 UI를 표시할 때는 현재 표시할 캐릭터 UI를 구성하는 복수의 레이어를 조합하여 다양한 형태로 표시하는 것이 가능하다.
제어 유닛은 메모리와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작을 제어한다. 제어 유닛은 하나 또는 복수의 프로세서로 구성될 수 있다. 구체적으로, 제어 유닛은 메모리에 저장된 적어도 하나의 인스트럭션(instruction)을 실행함으로써, 본 개시의 다양한 실시 예에 따른 전자 장치(100)의 동작을 수행할 수 있다.
일 실시 예에 따라 프로세서(130)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로프로세서(microprocessor), GPU(Graphics Processing Unit), AI(Artificial Intelligence) 프로세서, NPU (Neural Processing Unit), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 애플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, ASIC(application specific integrated circuit), FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
또한, 일 실시 예에 따른 인공 지능 모델을 실행하기 위한 프로세서(130)는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공 지능 전용 프로세서와 소프트웨어의 조합을 통해 구현될 수 있다. 프로세서(130)는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공 지능 모델에 따라, 입력 데이터를 처리하도록 제어할 수 있다. 또는, 프로세서(130)가 전용 프로세서(또는 인공 지능 전용 프로세서)인 경우, 특정 인공 지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. 예를 들어, 특정 인공 지능 모델의 처리에 특화된 하드웨어는 ASIC, FPGA 등의 하드웨어 칩으로 설계될 수 있다. 프로세서(130)가 전용 프로세서로 구현되는 경우, 본 개시의 실시 예를 구현하기 위한 메모리를 포함하도록 구현되거나, 외부 메모리를 이용하기 위한 메모리 처리 기능을 포함하도록 구현될 수 있다.
프로세서(140)는 사용자로부터 어시스턴스 기능의 활성화 명령이 입력되면, 어시스턴스 기능을 수행할 수 있다. 이와 같은 활성화 명령은 전자 장치(100)에 구비된 버튼을 입력받은 경우 또는 특정은 발화 키워드(예를 들어, 하이 빅스비)가 입력된 경우 수행될 수 있다.
그리고 프로세서(140)는 어시스턴스 기능이 활성화되면, 캐릭터 UI가 표시되도록 디스플레이(120)를 제어하고 어시스턴스 기능을 수행할 수 있다. 어시스턴스 기능에 대해서는 도 3을 참조하여 후술한다.
구체적으로, 프로세서(140)는 별도의 컨텐츠를 출력중이지 않은 경우에는 기본 캐릭터에 대응되는 캐릭터 UI를 생성하고, 생성한 캐릭터 UI가 표시되도록 디스플레이(120)를 제어할 수 있다. 만약, 특정 컨텐츠를 출력 중이거나, 특정 컨텐츠에 대한 출력의 종료가 기설정된 시간 이내라면, 해당 컨텐츠에 대응되는 캐릭터 UI를 표시하도록 디스플레이(120)를 제어할 수 있다.
예를 들어, 음악 컨텐츠를 출력 중이거나, 이전 출력중인 컨텐츠가 음악 컨텐츠인 경우, 메타 데이터를 이용하여 메타 데이터에 대응되는 캐릭터 UI를 생성할 수 있다. 구체적으로, 메타 데이터에 포함된 장르 정보, 가수 정보, 제목 정보를 이용하여 캐릭터 UI를 적용할 소품 컨텐츠를 결정하고, 결정된 소품 컨텐츠를 기본 캐릭터 UI에 조합하여 캐릭터 UI를 생성할 수 있다. 한편, 구현시에는 상술한 정보뿐만 아니라, 컨텐츠가 가지고 있는 특성, 표현할 수 있는 속성을 이용하여 소품 컨텐츠를 결정할 수도 있다. 예를 들어, 메타 데이터에 커버 이미지가 포함되어 있고, 해당 커버 이미지의 주된 속성이 파란색이면, 캐릭터 UI의 스킨 색을 파란색을 표현할 수 있다. 또는 커버 이미지 내의 주요한 특징(예를 들어, 헤어 스타일, 수염) 등을 반영하는 소품을 생성할 수도 있다.
여기서 기본 캐릭터는 제조가 최초 제공한 캐릭터이나, 후술하는 액세서리 장치로부터 수신한 정보에 기초하여 생성한 캐릭터일 수 있다. 또한, 구현시에는 기본 캐릭터는 액세서리 장치를 통하여 생성되거나, 사용자의 선택한 복수의 캐릭터 형상 중 하나일 수있다.
즉, 기본 캐릭터다 도 1과 같이 원형의 얼굴 이미지인 경우, 프로세서(10)는 기본 캐릭터에 대응되는 얼굴 형상에 장르에 대응되는 여러 소품을 얼굴 이미지에 합성하여 캐릭터 UI를 생성할 수 있다.
또한, 프로세서(120)는 소품뿐만 아니라, 캐릭터 UI의 배경 및/또는 상술한 메타 데이터에 대응되는 소품 이외에 다양한 소품을 반영하여 캐릭터 UI를 생성할 수 있다. 예를 들어, 사용자가 장착한 케이스 액세서리가 빨간색인 경우, 얼굴 형상을 빨간색을 갖도록 수정하거나, 현재 날씨/시간/온도 등에 대응되게 배경색을 변경하거나, 배경에 대한 소품(예를 들어, 비 방울, 눈) 등을 반영하는 등의 다양한 방식으로 캐릭터 UI를 생성하는 것이 가능하다.
또한, 프로세서(120)는 음악 컨텐츠가 아닌 영상 컨텐츠에 대해서도 상술한 동작을 수행할 수 있다. 구체적으로, 프로세서(120)는 영상 컨텐츠에 포함된 컨텐츠 정보를 이용하여 감독정보, 컨텐츠 이름 등을 이용하여 캐릭터 UI를 생성할 수 있다. 예를 들어, 특정 영화가 중세 배경을 갖는 영화인 경우, 중세 배경의 배경과 칼을 소품으로 갖는 캐릭터 UI를 생성할 수 있다.
또한, 프로세서(120)는 전자 장치(100)에서 재생중인 컨텐츠가 아닌 다른 장치에서 재생중인 컨텐츠에 대응하여 캐릭터 UI를 생성할 수 있다. 구체적으로, 홈네트워크 내에 TV와 같은 디스플레이 장치에서 영화를 재생 중인 경우, 프로세서(120)는 통신 장치(110)를 통하여 디스플레이 장치에서 재생중인 영화 정보를 수신하고, 수신된 영화 정보에 대응되는 캐릭터 UI를 표시할 수도 있다.
한편, 프로세서(140)는 상술한 컨텐츠에 대한 정보를 표현하는데 필요한 소품 컨텐츠가 전자 장치(100)에 저장되어 있지 않거나, 해당 컨텐츠를 표시하는데 필요한 소품 컨텐츠를 식별할 수 없는 경우에는 외부 서버를 이용할 수 있다. 구체적으로, 프로세서(140)는 상술한 바와 같이 메타 데이터를 통하여 확인된 컨텐츠 정보를 외부 서버에 전송하거나, 메타 데이터 자체를 외부 서버에 전송하여, 해당 컨텐츠에 대응되는 소품 컨텐츠를 식별할 수 있다. 또한, 식별된 소품 컨텐츠가 전자 장치(100)에 저장되어 있지 않았으면, 프로세서(140)는 외부 장치에 해당 소품 컨텐츠를 요청하여 수신할 수 있다.
한편, 프로세서(140)는 상술한 소품 컨텐츠의 송수신 과정에서 인증 동작을 수행할 수 있다. 예를 들어, 특정 소품 컨텐츠(또는 배경 컨텐츠) 등에 저작권이 있거나 구매가 필요한 경우라면, 전자 장치(100)의 사용자가 해당 소품 컨텐츠 등에 대한 권한이 있는지를 확인하고, 권한이 확인된 경우에 해당 소품 컨텐츠를 수신할 수 있다. 한편, 구현시에는 소품 컨텐츠 자체에 대한 권한 여부 대신에 현재 사용자가 이용하는 컨텐츠의 권한을 이용하여 소품 컨텐츠의 수신 가능 여부를 판단할 수 있다. 예를 들어, 사용자가 특정 영화를 구매하였으며, 해당 영화에 대응되는 소품 컨텐츠의 사용에 사용 권한이 있는 경우, 해당 영화에 대한 소품 컨텐츠 수신 시에 해당 영화에 대한 사용자 권한을 확인하여 소품 컨텐츠의 수신 가능 여부를 판단할 수 있다. 이와 같은 판단은 사용자 권한 정보를 외부 서버에 전송하고, 해당 외부 서버가 판단하는 것도 가능하며, 전자 장치(100)가 컨텐츠에 설정된 DRM 정보 등을 이용하여 판단하는 것도 가능하다.
그리고 프로세서(140)는 어시스턴스 기능의 수행 중에 이용하는 안내 음성 모드(또는 목소리)를 설정 또는 변경할 수 있다. 구체적으로, 앞선 과정을 통하여 캐릭터 UI가 변경되는 경우, 복수의 안내 음성 모드 중 생성된 캐릭터 UI에 대응되는 안내 음성 모드를 결정할 수 있다. 예를 들어, 성인 남자 목소리로 안내 음성을 출력되는 것으로 기설정되어 있는데, 어린이 컨텐츠가 재생되어 어린이 컨텐츠에 대응되는 캐릭터 UI가 표시되면, 이에 대응되게 프로세서(140)는 안내 음성의 모드를 어린이 모드로 변경하여, 안내 메시지 또는 응답 메시지를 변경된 어린이 모드에 대응되는 목소리로 출력할 수 있다.
이를 위하여, 전자 장치(100)는 복수의 안내 음성 모드를 가질 수 있으며, 안내 음성 모드 각각에 대응되는 음원 데이터를 저장할 수 있다. 만약, 변경된 캐릭터 UI에 대응되는 음원 데이터가 저장되어 있지 않은 경우, 프로세서(140)는 외부 장치로부터 대응되는 음원 데이터를 요청하여 수신하도록 통신 장치(110)를 제어할 수 있다. 안내 음성 모드는 단순히 성인 남자, 성인 여자, 어린이로 구분되는 목소리일 수 있으며, 특정인에 대응되는 음원, 영화/시리즈물 내의 캐릭터에 대응되는 목소리일 수 있다.
그리고 프로세서(140)는 컨텐츠를 수신하면, 수신된 컨텐츠에 대응되는 소리가 출력되도록 스피커(130)를 제어할 수 있다. 또한, 어시스턴스 기능에 대응되는 다양한 안내 메시지 또는 응답 메시지를 출력하도록 스피커(130)를 제어할 수 있다.
그리고 프로세서(140)는 전자 장치(100)의 기본 동작시에 컨텐츠에 대응되는 정보가 표시되도록 디스플레이(120)를 제어할 수 있다. 예를 들어, 음악 컨텐츠 재생 중인 경우, 프로세서(140)는 현재 재생중인 음악의 커버 이미지가 표시되도록 디스플레이(120)를 제어할 수 있다. 한편, 이와 같은 동작 중에 어시스턴스 기능이 활성화되면, 프로세서(140)는 앞서 설명한 바와 같이 해당 컨텐츠에 대응되는 캐릭터 UI가 표시되도록 디스플레이(120)를 제어할 수 있다.
그리고 상술한 캐릭터 UI의 표시 동작을 보다 빠르게 수행하기 전에, 프로세서(140)는 컨텐츠 재생 중에 재생 중인 컨텐츠에 대응되는 캐릭터 UI를 생성하거나, 해당 캐릭터 UI의 생성에 필요한 데이터를 존재하는지 확인 또는 수신하는 동작을 선행적으로 수행할 수 있다.
이상과 같이 본 개시에 따른 전자 장치(100)는 현재 재생 중인 컨텐츠에 대응하여 다양한 캐릭터 UI를 표시하는바, 사용자는 보다 친밀하게 전자 장치를 사용하는 것이 가능하다. 또한, 캐릭터 UI는 재생중인 컨텐츠 장르 등에 따라 다양하게 변경되는바, 재미있는 인터렉션 경험을 제공할 수 있다.
한편, 도 2에서는 전자 장치(100)의 간단한 구성만을 도시하였지만, 전자 장치(100)는 도 2에 도시하지 않은 다양한 구성을 더 포함할 수도 있다. 이에 대해서는 도 3을 참조하여 아래에서 설명한다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 나타내는 도면이다.
도 3을 참조하면, 전자 장치(100)는 통신 장치(110), 디스플레이(120), 스피커(130), 프로세서(140), 입력 장치(150), 마이크(160), 센서(170), 발광 소자(180)를 포함한다.
통신 장치(110), 디스플레이(120), 스피커(130), 프로세서(140)와 관련해서는 도 3에서 기본적인 설명을 하였는바, 이하에서는 도 4에서 설명하지 않은 추가 동작과 관련된 내용만을 설명한다.
통신 장치(110)는 복수의 통신 장치(111, 113)를 포함한다. 구체적으로, 통신 장치(110)는 서로 다른 통신 방식으로 동작하는 제1 통신 장치(111), 제2 통신 장치(113)를 포함할 수 있다. 한편, 구현시에 통신 장치(110)는 세 개 이상의 통신 장치를 포함할 수도 있다.
제1 통신 장치(111)는 외부 인터넷망과 연결되는 통신 장치로, Wifi 등의 장치일 수 있으며, 도 3의 통신 장치(100)와 같은 기능을 수행할 수 잇다.
제2 통신 장치(113)는 근거리 통신을 수행하는 통신 장치로, NFC 등일 수 있다. 구체적으로 제2 통신 장치(113)는 전자 장치(110)의 외관에 인접하게 배치되며, 외부 장치로부터 외부 장치의 정보(또는 외부 장치가 제공하는 정보)를 수신할 수 있다. 이러한 제2 통신 장치(113)는 전자 장치(100)의 상단 영역에 배치될 수 있다. 이에 따라, 전자 장치(100) 케이스 액세서리가 장착되면, 장착된 케이스 액세서리의 장치 정보를 수신할 수 있다.
또한, 제2 통신 장치(113)는 장착된 케이스 액세서리의 장치 정보뿐만 아니라, 사용자 단말장치로부터 컨텐츠 정보를 수신할 수 있다. 예를 들어, 사용자가 사용자 단말장치를 통하여 음악을 청취 중에 전자 장치(100)의 상단(즉, 제2 통신 장치(113)가 위치하는 영역)을 태그하는 동작을 수행할 수 있다. 이 경우, 프로세서(140)는 제2 통신 장치(113)를 통하여 사용자 단말장치에서 재생 중인 컨텐츠 정보를 수신하고, 수신된 컨텐츠 정보에 대응되는 컨텐츠를 재생할 수 있다.
스피커(130)는 컨텐츠에 대응되는 소리를 출력하거나, 어시스턴스 기능에 대응되는 안내 메시지, 응답 메시지를 출력할 수 있다. 이와 같은 스피커(130)는 복수의 스피커 유닛(131~135)으로 구성될 수 있다. 스피커(130)는 전자 장치의 본체의 상단에 배치되는 제1 스피커 유닛(131), 본체의 좌측면에 배치되는 제2 스피커 유닛(132), 본체의 우측면에 배치되는 제3 스피커 유닛(133), 본체의 정면에 배치되는 제4 스피커 유닛(134), 본체의 하면에 배치되는 제5 스피커 유닛(135)을 포함할 수 있다. 한편, 도시된 예에서는 스피커(130)가 5개의 스피커 유닛을 포함하는 것으로 도시하고 설명하였지만, 구현시에는 4개 이하의 스피커 유닛을 포함할 수도 있으며, 6개 이상의 스피커 유닛을 포함할 수도 있다.
이와 같이 복수의 스피커 유닛을 포함하는 경우, 프로세서(140)는 후술하는 센서(170)에서 감지된 센서 값에 기초하여 전자 장치(100)의 배치 구조를 확인하고, 확인된 배치 구조에 따른 소리 출력이 수행되도록 복수의 스피커를 제어할 수 있다.
예를 들어, 도 1과 같이 배치된 경우, 제5 스피커 유닛(135)은 바닥면에 닿아 소리를 출력하기 어렵다. 따라서, 프로세서(140)는 제5 스피커 유닛(135)을 제외한 나머지 4개의 스피커 유닛(131, 132, 133, 134)만 동작하도록 할 수 있다. 이때, 프로세서(140)는 각 스피커 유닛의 배치 위치를 고려하여 음원을 구성하는 복수의 채널 중 대응되는 채널을 출력하도록 할 수 있다. 예를 들어, 도 1의 경우 제2 스피커 유닛(132)은 음원의 좌측 채널을 출력하도록 하고, 제3 스피커 유닛(133)은 우측 채널을 출력하도록 하고, 제1 스피커 유닛(131), 제4 스피커 유닛(134)은 센터 채널을 출력하도록 할 수 있다. 이와 같이 본 개시에 따른 전자 장치(100)는 복수의 스피커 유닛을 이용하여 사운드를 보다 입체적으로 출력하는 것이 가능하다.
한편, 구현시에 전자 장치(100)는 거치대에 거치되어 동작할 수 있다. 이와 같은 제5 스피커 유닛(135)은 바닥면에 닿지 않는바, 제5 스피커 유닛(135)도 사운드를 출력할 수 있다. 이를 위하여, 프로세서(140)는 거치대에 거치 되었는지를 확인하고, 거치대에 거치된 경우라면, 5개 스피커 유닛 모두 사운드를 출력할 수 있다. 구현시에 거치대에 거치 되었는지는 사용자로부터 거치 상태를 확인받거나, 전자 장치(100)의 후면에 돌출 부재를 인입 여부를 감지하거나, 거치대에 NFC 태그를 배치하여 거치대 정보를 갖는 NFC 정보가 수신되는 경우 등 다양한 방식으로 확인할 수 있다.
그리고 예를 들어, 도 7과 같이 전자 장치(100)가 배치된 경우, 프로세서(140)는 5개의 스피커가 360도 무지향성 스피커로 동작하도록 할 수 있다.
입력 장치(150)는 사용자의 제어 명령을 입력받기 위한 장치로 버튼으로 구성될 수 있다. 또는 입력 장치(150)는 디스플레이 장치(120)의 기능을 함께 수행하는 터치 스크린으로 구현될 수도 있다. 한편, 상술한 버튼은 사용자의 조작에 따라 복수의 기능을 입력받을 수 있다. 예를 들어, 버튼을 한번 짧게 입력받은 경우, 컨텐츠 일시 정지/또는 재생을 교번적으로 입력받을 수 있으며, 짧게 두 번 입력받은 경우, 다음 컨텐츠로 변경 등일 수 있다. 또는 버튼을 짧게 한번 받으면 어시스턴스 기능 활성화로 동작하고, 길게 받으면 전원 오프 동작으로 동작할 수도 있다.
그리고 입력 장치(150)는 전자 장치(100)의 후면에 배치되는 돌출 부재 형태의 버튼을 포함할 수 있다. 프로세서(140)는 돌출 부재의 돌출 상태에 기초하여 거치대에 장착 여부를 판단할 수 있다. 예를 들어, 돌출 부재가 인입되어 버튼이 눌린 상태가 감지되면, 프로세서(140)는 거치대에 장착된 것으로 판단할 수 있다.
마이크(160)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 프로세서(140)는 마이크(160)를 통해 입력되는 사용자 음성을 이용하여 어시스턴스 기능을 수행할 수 있다. 또한, 마이크(160)는 복수의 위치에서 소리 입력을 받는 스테레오 마이크로 구성될 수 있다.
센서(170)는 전자 장치의 배치 상태를 감지하기 위한 용도로 수행될 수 있다. 예를 들어, 센서(170)는 자이로 센서일 수 있다. 한편, 구현시에는 자이로 센서와 지자기 센서 등의 조합으로 수행될 수도 있다. 또한, 센서(170)는 상술한 자이로 센서 이외에 GPS 센서, 조도 센서 등을 더 포함하여, 전자 장치(100)가 위치하는 위치 정보 또는 주변 환경 정보 등을 확인할 수도 있다.
따라서, 프로세서(140)는 센서(170)에서 수신된 측정 값을 이용하여, 전자 장치(100)의 배치 형태를 확인하고, 확인된 배치 형태에 대응되게 복수의 스피커(130)를 제어할 수 있다.
발광 소자(180)는 빛을 발광할 수 있다. 예를 들어, 프로세서(130)는 음성 인식 과정(또는 어시스턴스 기능)이 활성화된 경우, 또는 마이크(160)를 통하여 사용자 발화 음성을 수신할 준비가 된 경우, 발광 소자(180)가 빛을 발광하도록 할 수 있다. 이때, 프로세서(130)는 앞서 설명한 바와 같이 캐릭터 UI를 표시하는 동작을 함께 수행할 수 있다.
그리고 프로세서(140)는 상술한 동작 이외에 전자 장치(100)의 상태에 따라 상태에 대응되는 빛을 발광하도록 발광 소자(180)를 제어할 수 있다. 예를 들어, 정상 동작 중에는 녹색 등이 표시되도록 발광 소자(180)를 제어하고, 배터리 잔량이 낮아 충전이 필요한 상황 또는 에러가 발생한 상황(예를 들어, 인터넷 망에 연결되지 않은 경우 등)에는 빨간색으로 표시되도록 발광 소자(180)를 제어할 수 있다. 또한, 프로세서(180)는 음성 인식 중 또는 사용자의 발화 음성에 대한 처리 중인에는 음성인식이 진행 중임을 표시하도록 발광 소자(180)가 깜박이도록 하도록 발광 소자(180)를 제어할 수 있다.
한편, 도 5에서는 전자 장치(100)가 다양한 구성을 갖는 것으로 도시하고 설명하였다. 구현시에 전자 장치(100)는 도 5에 도시하지 않는 다른 구성(예를 들어, 배터리, 카메라 등)을 더 포함할 수 있으며, 상술한 구성 중 일부는 생략된 형태를 가질 수도 있다.
한편, 도 1 내지 도 3을 도시하고 설명함에 있어서, 사용자로부터 어시스턴스 기능의 활성화 명령이 입력되는 경우에 어시스턴스 기능이 동작하는 것으로 설명하였으나, 구현시에는 상술한 경우뿐만 아니라, 다양한 상황에서 어시스턴스 기능이 동작될 수 있다. 예를 들어, 사용자가 미리 설정할 시간에 시작되거나, 재생 리스트 내의 모든 음악의 재생이 완료된 시점 등과 같이 전자 장치 내의 다양한 이벤트 상황에 따라 어시스턴스 기능이 수행될 수 있다.
또한, 전자 장치 내의 이벤트 상황뿐만 아니라, 외부의 상황 변화에 대응하여 어시스턴스 기능이 수행될 수 있다. 예를 들어, 홈 네트워크 내의 IoT 기기로부터 제공받은 정보(예를 들어, 온도가 낮아 난방이 필요한 상황, 온도가 높아 냉방이 필요한 상황, 먼지가 많아 공기 청정기의 동작이 필요한 상황)에 기초하여 상술한 어시스턴스 기능이 수행될 수도 있다.
프로세서(140)는 사용자로부터 어시스턴스 기능의 활성화 명령이 입력되면,
도 4는 본 개시의 일 실시 예에 따른 전자 장치의 디스플레이에 표시되는 UI 화면의 예를 도시한 도면이다. 구체적으로, 도 4는 다양한 컨텐츠에 따라 표시되는 캐릭터 UI의 다양한 예를 도시한 도면이다.
먼저, 현재 컨텐츠를 재생중이지 않은 경우, 전자 장치(100)는 기본 캐릭터 UI를 표시할 수 있다. 이러한 기본 캐릭터는 제조사가 최초 제공한 캐릭터 일 수 있다. 만약, 사용자가 후술하는 도 5에서 설명한 바와 같은 액세서리 케이스를 장착하거나, 다운로드 방식으로 기본 캐릭터 형상을 변경한 경우라면, 현재 설정되어있는 캐릭터 UI가 표시될 수 있다.
이때, 전자 장치(100)는 날씨/시간/온도 등 다양한 정보에 기초하여, 해당 날씨/시간/온도에 대응되는 캐릭터 UI를 표시할 수 있다. 예를 들어, 비가 오는 날에는 캐릭터 UI의 배경에 비를 표시하거나, 눈이 오는 날은 캐릭터 UI의 배경에 눈을 표시할 수 있다. 또는 무더운 날에는 캐릭터 UI의 피부에 땀을 표시하거나, 추운 날에는 캐릭터 UI가 추위에 떠는 형상을 표시할 수 있다. 또는 저녁 시간에는 노을을 배경으로 표시하거나, 늦은 밤에는 밤하늘을 갖는 배경을 표시할 수도 있다.
이와 같은 상태에서 사용자가 컨텐츠 재생을 요청하면, 해당 컨텐츠에 대응되는 소리를 출력할 수 있다. 그리고 해당 컨텐츠에 대응되는 정보를 이미지(421, 431, 441)를 표시할 수 있다. 도시된 예에서는 음악 컨텐츠에 포함되는 앨범 커버 이미지가 표시되는 것으로 도시하였지만, 구현시에는 앨범 커버 이미지가 아닌 앨범에 대한 정보가 표시될 수도 있다. 또한, 도시된 예에서는 커버 이미지를 반원 형태로 표시하였지만, 이는 전자 장치(100)가 CD를 재생하는 것과 같은 형태를 보이기 위한 것으로 구현시에는 상술한 형태 이외에 다른 형태로 표시하는 것도 가능하다.
이와 같이 컨텐츠 재생 중에 사용자가 어시스턴스 기능을 활성화하면, 현재 재생 중인 컨텐츠에 대응되는 캐릭터 UI가 표시된다. 예를 들어, 클래식 음악(421)의 재생 중에 어시스턴스 기능이 활성화되면, 클래식 음악에 대응되는 캐릭터 UI(도시된 바와 같이 캐릭터 UI에 고전적인 형태의 헤어 스타일을 갖는 캐릭터 UI)(423)를 표시할 수 있다.
그리고 재생 컨텐츠가 락 음악(431)이면, 락 음악에 대응되는 기타 소품을 반영한 캐릭터 UI(433)를 표시할 수 있다. 또한, 재생 컨텐츠가 아이들이 좋아하는 음악(441)이면, 해당 재생 컨텐츠를 식별하는데 유리한 소품을 반영한 캐릭터 UI(443)가 표시될 수 있다.
한편, 이상에서는 재생하는 컨텐츠에 대응하여 컨텐츠 UI만 변경되는 것으로 설명하였지만, 구현시에는 안내 메시지 또는 응답 메시지를 출력하는 음성 모드(구체적으로 목소리)도 변경될 수 있다. 예를 들어, 클래식 컨텐츠 중에는 클래식한 목소리로 안내 메시지 등을 출력하고, 어린이 음악 재생 중인 경우, 어린이 목소리(또는 현재 재생중인 컨텐츠에 대응되는 캐릭터 목소리)로 안내 메시지 등을 출력할 수 있다.
한편, 도 4에서는 특정 컨텐츠의 재생 중인 경우, 어시스턴스 기능이 활성화되는 경우, 컨텐츠에 대응되는 캐릭터 UI가 표시되는 것으로 도시하고 설명하였다. 그러나 구현시에는 컨텐츠가 재생중인지 않은 경우라도, 어시스턴스 기능이 활성화되면 컨텐츠에 대응되는 캐릭터 UI를 표시할 수 있다. 예를 들어, 재생 종료 후 기설정된 시간 내에 어시스턴스 기능이 활성화된 경우라면, 기설정된 시간 내에 출력하였던 컨텐츠에 대응되는 캐릭터 UI를 표시하거나, 시간과 무관하게 최근에 출력한 컨텐츠에 대응되는 캐릭터 UI를 표시할 수 있다. 또는 사용자의 재생 빈도가 높은 컨텐츠를 선별하고, 선별된 컨텐츠에 대응되는 캐릭터 UI를 표시하는 것도 가능하다.
한편, 도 4에서는 캐릭터 UI를 표시함에 있어서, 캐릭터의 외형의 일부(구체적으로, 반원 형태의 얼굴)만을 표시하는 것으로 도시하였다. 이와 같은 것은 컨텐츠 정보를 표시할 때 CD 형상과 같이 앨범 이미지를 표시하는 것과 동일한 이유로, 동일한 형상으로 캐릭터 UI를 표시하기 위함이다. 따라서, 전자 장치에서의 디스플레이 형태 또는 크기 등이 도 4와 상이한 경우라면, 표시되는 캐릭터 UI에서 보이는 크기 등도 그에 맞춰 변경될 수 있다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치의 디스플레이에 표시되는 UI 화면의 예를 도시한 도면이다. 구체적으로, 도 5는 액세서리 장치가 전자 장치에 장착되는 경우의 동작을 설명한다.
예를 들어, 액세서리 장치(10, 20)는 전자 장치(100)의 외관을 감싸는 케이스일 수 있다. 이와 같은 액세서리 장치(10, 20)는 NFC 태그를 구비할 수 있으며, NFC 태그는 전자 장치(100)의 NFC 인식 장치가 위치하는 영역에 대응되는 영역에 위치할 수 있다. 예를 들어, 전자 장치(100)의 상단에 NFC 인식 장치가 위치하는 경우, NFC 태그는 액세서리 장치(10, 20), 상단 영역에 위치할 수 있다.
한편, 본 개시에 따른 전자 장치(100)는 복수의 스피커를 포함한다. 따라서, 스피커가 액세서리 장치에 의하여 감싸지는 경우, 액세서리 장치에 의하여 소리의 출력이 방해될 수 있다. 따라서, 케이스 형태의 액세서리 장치는 전자 장치(100)의 스피커가 배치되는 영역에 대응되는 면은 복수의 홀을 구비함으로써, 전자 장치(100)에서 출력되는 소리가 잘 출력되도록 할 수 있다.
이와 같이 액세서리 장치(10, 20)가 전자 장치(100)에 장착되는 경우, 전자 장치(100)는 액세서리 장치(10, 20)가 장착되었음을 인식할 수 있다. 그리고 장착된 액세서르 장치(10, 20)에 대응하게 캐릭터 UI를 변경할 수 있다.
예를 들어, 제1 액세서리 장치(10)에 빨간색 케이스(10)가 장착되면, 전자 장치(100)는 캐릭터 UI 내의 캐릭터의 피부색이 빨간색인 캐릭터 UI(520)를 생성하여 표시할 수 있다.
또는 제2 액세서리 장치(10)에 노란색 케이스(20)가 장착되면, 전자 장치(100)는 캐릭터 UI 내의 캐릭터의 피부색이 노란색인 캐릭터 UI를 생성하여 표시할 수 있다.
한편, 이상에서는 액세서리 장치의 색상에 따라 캐릭터의 피부색이 변경되는 것으로 도시하였지만, 구현시에는 캐릭터 UI의 배경색이 변경될 수도 있다.
또한, 장착되는 캐릭터의 성격도 장착된 액세서리 장치의 종류에 따라 변경될 수 있다. 예를 들어, 차분한 색의 케이스가 장착되는 경우, 해당 캐릭터가 차분한 성격을 갖는 형태 또는 음성 안내 메시지가 차분한 목소리로 설정할 수 있다. 반대로, 빨간색과 같이 따듯한 색상의 케이스가 장착되면, 활발한 성격으로 목소리로 설정할 수도 있다.
한편, 도 5에서는 장착되는 액세서리 장치에 기초하여, 캐릭터의 피부색 또는 배경, 음성 등만이 변경되는 것으로 도시하고 설명하였지만, 구현시에는 캐릭터의 형상이나 소품 등도 변경될 수 있다. 이에 대해서는 도 6에서 설명한다.
도 6은 액세서리에 의해 전자 장치의 디스플레이에 표시되는 UI 화면의 변화 예를 도시한 도면이다.
도 6을 참조하면, 액세서리 장치에 대응한 다양한 캐릭터 외형(610, 620, 630)을 도시한 도면이다.
도면을 참조하면, 케이스 변경에 따라 캐릭터의 외형이 변경될 수 있다. 또한, 변경된 외형에 따라 캐릭터의 성격(또는 음성 목소리)도 변경될 수 있다.
한편, 구현시에는 원형의 캐릭터뿐만 아니라, 이미 알려진 다양한 캐릭터가 표시될 수 있다. 예를 들어, 액세서리 케이스가 특정 영화와 관련된 액세서리인 경우, 해당 영화의 주요 캐릭터가 캐릭터 UI로 이용될 수 있으며, 해당 케이스가 장착되면, 해당 캐릭터의 목소리가 음성 안내 메시지 등에 적용될 수 있다.
또한, 특정 제품 또는 특정 회사와 관련된 케이스인 경우, 해당 제품 또는 해당 회사의 기업 CI에 대응되는 캐릭터 UI가 표시될 수 있다. 예를 들어, 특정 초콜릿 바의 형상을 하는 케이스가 장착되는 경우, 해당 초콜릿 바의 메인 캐릭터가 캐릭터 UI로 표시될 수도 있다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
구체적으로, 도 7은 전자 장치의 후면이 바닥에 닿게 놓인 경우를 설명한다. 서 도 3에서 설명한 바와 같이 전자 장치는 복수의 스피커를 포함할 수 있으며, 복수의 스피커는 전자 장치의 다양한 면에 배치될 수 있다.
따라서, 도 1과 같이 하단 면이 바닥에 놓인 경우에, 전자 장치는 바닥면에 놓인 스피커 유닛(135)은 소리를 출력하지 않도록 하고, 좌측 스피커에서는 좌측 채널에 대응되는 소리가 출력되도록 하고, 우측 스피커에서는 우측 채널에 대응되는 소리가 출력되도록 하고, 전면 및 상부 스피커에서는 센터 채널에 대응되는 소리가 출력하도록 할 수 있다.
만약, 도 7에 도시된 바와 같이 후면이 바닥에 놓인 경우, 전자 장치는 복수의 스피커가 360 무지향성 스피커로 동작하도록 할 수 있다.
이때, 디스플레이(131)는 도 1과 같은 형태의 캐릭터가 표시될 수도 있으며, 누워있는 캐릭터를 표시할 수도 있다. 즉, 전자 장치(100)는 전자 장치(100)의 전자 장치의 배치 형태에 따라 각 스피커가 출력하는 채널뿐만 아니라, 배치 형태에 대응되는 방향으로 캐릭터 UI를 표시할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
구체적으로, 도 8은 전자 장치의 좌 면이 바닥에 닿게 놓인 경우를 설명한다. 이와 같이 전자 장치(100)의 좌측면이 바닥에 맞닿아 있는 경우, 전자 장치(100)는 상측 스피커(131)가 소리의 좌측 채널을 출력하고, 하측 스피커(135)를 이용하여 소리의 우측 채널을 출력할 수 있다.
이와 같이 본 개시에 따른 전자 장치(100)는 배치 형태에 대응하게 스피커가 출력하는 소리 채널을 변경하여 출력할 수 있다.
또한, 도 1과 비교하여보면, 표시되는 캐릭터의 형상도 변경됨을 확인할 수 있다. 한편, 도시된 예에서는 캐릭터의 형상이 모두 동일하게 표시되는 것으로 도시하였지만, 구현시에는 도 1과 동일하게 캐릭터의 반만 표시하는 것도 가능하며, 그 경우, 눈 하나, 입 반쪽만을 갖는 캐릭터 형상을 하는 캐릭터 UI를 표시할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 동작을 설명하기 위한 흐름도이다.
도 9를 참조하면, 컨텐츠 재생 명령이 입력되면(S910), 컨텐츠에 대응되는 소리를 출력한다. 여기서 컨텐츠는 음악 컨텐츠일 수 있으며, 영화, 방송 등의 영상 컨텐츠 등일 수 있다. 또한, 이와 같은 컨텐츠는 전자 장치(100) 자체의 컨텐츠뿐만 아니라, 홈 네트워크 내의 다른 기기에서의 컨텐츠 출력을 포함한다. 예를 들어, 홈 네트워크 내에 위치하는 TV와 같은 디스플레이 장치에서 영화가 재생 중인 경에도 동작할 수 있다. 이때, 전자 장치(100)는 해당 컨텐츠의 음원 데이터를 수신하여 출력하는 것도 가능하다. 예를 들어, 전자 장치(100)가 홈시어터 또는 사운드 바 등인 경우, 전자 장치(100)는 디스플레이 장치로부터 음원 데이터를 수신하여 출력할 수 있다.
컨텐츠에 대응되는 메타 데이터를 이용하여 컨텐츠에 대응되는 캐릭터 UI를 생성한다(S920). 구체적으로, 메타 데이터에 포함된 장르 정보, 가수 정보, 제목 정보를 이용하여 캐릭터 UI에 적용될 소품 컨텐츠를 결정하고, 결정된 소품 컨텐츠를 조합하여 캐릭터 UI를 생성할 수 있다. 예를 들어, 메타 데이터를 외부 서버에 전송하고, 외부 서버로부터 메타 데이터에 대응되는 캐릭터 UI 데이터를 수신하고, 수신된 캐릭터 UI 데이터를 이용하여 캐릭터 UI를 생성할 수 있다. 또는 결정된 소품 컨텐츠에 대한 정보를 외부 서버에 전송하고, 외부 서버로부터 소품 컨텐츠에 대한 정보에 대응되는 소품 컨텐츠 데이터를 수신하여 캐릭터 UI를 생성할 수 있다.
한편, 상술한 캐릭터 형상은 전자 장치에 장착된 액세서리 장치의 액세서리 장치의 정보에 대응할 수 있으며, 별도의 액세서리 장치가 장착되지 않았으면, 기본 캐릭터 형상을 가질 수 있다. 또한, 구현시에 캐릭터 형상은 액세서리 장치뿐만 아니라, 사용자가 미리 선택하여 다운로드받은 형태의 데이터가 이용될 수도 있다.
그리고 생성된 캐릭터 UI를 표시한다(S930). 한편, 구현시에는 생성된 UI를 전자 장치(100)가 표시하지 않고, 다른 장치가 표시하는 형태로 구현될 수 있다. 예를 들어, 전자 장치(100)가 셋톱 박스나, 디스플레이를 구비하지 않는 장치로 구현되는 경우, 해당 캐릭터 UI가 디스플레이를 구비하는 홈 네트워크 내의 다른 기기(예를 들어, TV, 대형 디스플레이를 갖는 냉장고 등)에서 표시하도록 할 수 있다.
한편, 상술한 바와 같이 캐릭터 UI가 표시된 상태에서 어시스턴스 기능이 수행된다면, 해당 캐릭터 UI에 대응되는 음성으로 안내 메시지 또는 응답 메시지를 출력할 수 있다. 구체적으로, 복수의 안내 음성 모드 중 생성된 캐릭터 UI에 대응되는 안내 음성 모드를 결정되어 설정될 수 있으며, 안내 메시지 출력 이벤트가 발생하면, 결정된 안내 음성 모드에 대응되는 음성으로 안내 메시지가 출력할 수 있다. 예를 들어, 동화 컨텐츠를 출력 중인 경우에 어시스턴스 기능이 활성화되면, 어린이 모드로 인식하고, 어린이 모드에 대응되는 어린이 음성으로 안내 메시지 또는 응답 메시지가 출력될 수 있다.
도 10은 본 개시의 일 실시 예에 따른 캐릭터 표시 동작을 설명하기 위한 흐름도이다.
도 10을 참조하면, 사용자 명령이 입력된다(S1005). 구체적으로, 이러한 사용자 명령은 전자 장치(100)에 구비된 버튼을 통하여 입력될 수 있으며, 특정 트리거 음성(예를 들어, 하이 빅스비)을 통하여 입력될 수 있다. 그리고 이러한 사용자 명령은 음성 명령을 입력하기 위한 것으로, 예를 들어, 어시스턴스 기능의 활성화를 위한 것일 수 있다.
이와 같이 어시스턴스 기능이 활성화되면, 캐릭터 UI를 표시할 수 있다(S1010). 표시되는 캐릭터는 디폴트 캐릭터일 수 있으며, 직전에 재생 중이었던 또는 현재 일시 정지된 컨텐츠에 대응되는 캐릭터 UI일 수 있다.
상술한 어시스턴스 기능이 특정 컨텐츠의 재생이면, 사용자가 요청한 컨텐츠를 수신을 외부 서버에 요청할 수 있다(S1015).
그리고 수신한 컨텐츠에 대응되는 룩업 테이블의 존재 여부를 확인할 수 있다(S1020). 여기서 룩업 데이터는 해당 컨텐츠와 캐릭터 UI 간의 관계를 정의한 정보로, 도시된 예에서는 전자 장치(100)가 자체적으로 확인하는 것으로 도시하였지만, 구현시에는 외부 서버에 메타 데이터를 전송하고, 전송한 메타 데이터에 대응되는 룩업 테이블을 수신하여 상술한 동작을 수행할 수도 있다.
만약 룩업 테이블을 없는 경우(S1020-N), 메타 데이터에서 태그를 추출하여(S1025) 분석하고(S1030), 태그 각각에 대응되는 우선순위를 결정하여 룩업 데이트를 생성할 수 있다(S1035).
그리고 룩업 테이블에 기초하여 캐릭터 매칭 셋이 존재하는지를 결정할 수 있다(S1040). 만약, 필요한 소품 데이터가 없는 경우, 외부 서버에 상술한 소품 데이터를 요청하여 수신할 수 있다(S1045). 한편, 구현시에는 앞서 설명한 바와 같이 메타 데이터를 외부 서버에 전송하는 동작을 통하여 상술한 룩업 테이블 비교 및 다운로드 동작을 동시에 수행할 수도 있다. 즉, 메타 데이터로 외부 서버에 전송하고, 외부 서버로부터 해당 메타 데이터에 대응되는 소품 데이터를 수신하는 형태로도 구현될 수 있다.
이와 같이 모든 데이터가 준비되면, 캐릭터 UI를 생성하고(S1050, S1055), 생성된 캐릭터 UI를 표시할 수 있다(S1060).
한편, 도시된 예에서는 캐릭터 UI의 생성과 동시에 음악을 재생하는 것으로 도시하고 설명하였지만, 구현시에는 선행적으로 음악을 재생하고, 이후에 캐릭터 UI를 표시하는 것도 가능하다. 또한, 현재 컨텐츠 재생 중인 경우, 어시스턴스 기능의 활성화 전에 현재 재생중인 컨텐츠에 대응되는 캐릭터 UI를 미리 만들어 놓는다거나, 해당 캐릭터 UI 생성에 필요한 소품 데이터를 미리 외부 서버로부터 수신하여 놓는 등의 작업을 해 놓을 수 있다.
한편, 상술한 본 개시의 다양한 실시 예 중 적어도 일부에 따른 방법들은, 기존 전자 장치에 설치 가능한 애플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예 중 적어도 일부에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예 중 적어도 일부에 따른 방법들은, 전자 장치에 구비된 임베디드 서버, 또는 전자 장치 중 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작할 수 있는 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(A))를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다. 일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 애플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 애플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(100))를 포함할 수 있다.
상술한 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.
100: 전자 장치 110: 통신 장치
120: 디스플레이 130: 스피커
140: 프로세서

Claims (20)

  1. 전자 장치에 있어서,
    스피커;
    디스플레이;
    컨텐츠를 수신하는 통신 장치; 및
    상기 컨텐츠가 수신되면, 상기 컨텐츠에 대응되는 소리가 출력되도록 상기 스피커를 제어하는 프로세서;를 포함하고,
    상기 프로세서는,
    상기 컨텐츠에 대응되는 메타 데이터를 이용하여 상기 컨텐츠에 대응되는 캐릭터 UI를 생성하고, 상기 생성된 캐릭터 UI가 표시되도록 상기 디스플레이를 제어하는 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 메타 데이터에 포함된 장르 정보, 가수 정보 및 제목 정보 중 적어도 하나의 정보를 이용하여 상기 캐릭터 UI에 적용될 소품 컨텐츠를 결정하고, 상기 결정된 소품 컨텐츠를 조합하여 상기 캐릭터 UI를 생성하는 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 메타 데이터를 외부 서버에 전송하도록 상기 통신 장치를 제어하고, 상기 외부 서버로부터 상기 메타 데이터에 대응되는 캐릭터 UI 데이터를 수신하고, 상기 수신된 캐릭터 UI 데이터를 이용하여 상기 캐릭터 UI를 생성하는 전자 장치.
  4. 제2항에 있어서,
    상기 프로세서는,
    상기 결정된 소품 컨텐츠에 대한 정보를 외부 서버에 전송하도록 상기 통신 장치를 제어하고, 상기 외부 서버로부터 상기 소품 컨텐츠에 대한 정보에 대응되는 소품 컨텐츠 데이터를 수신하여 상기 캐릭터 UI를 생성하는 전자 장치.
  5. 제1항에 있어서,
    상기 통신 장치는,
    상기 전자 장치에 장착된 액세서리 장치의 액세서리 정보를 수신하고,
    상기 프로세서는,
    상기 액세서리 정보에 대응되는 캐릭터 형상을 결정하고, 상기 결정된 캐릭터 형상과 상기 메타 데이터에 대응되는 소품 컨텐츠를 조합하여 상기 캐릭터 UI를 생성하는 전자 장치.
  6. 제5항에 있어서,
    상기 액세서리 정보는, 상기 액세서리 장치의 색상 정보를 포함하고,
    상기 프로세서는,
    상기 캐릭터 형상의 피부색 또는 배경이 상기 색상 정보에 대응되는 색을 갖도록 상기 캐릭터 UI를 생성하는 전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    복수의 안내 음성 모드 중 상기 생성된 캐릭터 UI에 대응되는 안내 음성 모드를 결정하고, 안내 메시지 출력 이벤트가 발생하면, 상기 결정된 안내 음성 모드에 대응되는 목소리로 안내 메시지가 출력되도록 상기 스피커를 제어하는 전자 장치.
  8. 제1항에 있어서,
    상기 전자 장치는,
    상기 전자 장치의 배치 상태를 감지하는 센서를 포함하고,
    상기 스피커는,
    상기 전자 장치의 본체의 상단에 배치되는 제1 스피커, 상기 본체의 좌측면에 배치되는 제2 스피커, 상기 본체의 우측면에 배치되는 제3 스피커, 상기 본체의 정면에 배치되는 제5 스피커, 상기 본체의 하면에 배치되는 제5 스피커를 포함하고,
    상기 프로세서는,
    상기 센서에서 감지된 배치 상태에 대응하여 상기 제1 내지 제5 스피커의 출력 모드를 결정하고, 결정된 출력 모드에 대응하여 상기 제1 내지 제5 스피커를 제어하는 전자 장치.
  9. 제8항에 있어서,
    상기 디스플레이는 상기 본체의 전면의 상단에 배치되고,
    상기 제5 스피커는 상기 디스플레이의 하단에 배치되며,
    상기 프로세서는,
    상기 생성된 캐릭터 UI 중 상기 전면의 상기 디스플레이의 배치 형태에 대응되는 영역만 표시하도록 상기 디스플레이를 제어하는 전자 장치.
  10. 제8항에 있어서,
    상기 프로세서는,
    상기 센서에 기초하여 상기 전자 장치의 배치 상태를 확인하고, 확인된 배치 상태에 대응되는 방향으로 상기 캐릭터 UI를 표시하도록 상기 디스플레이를 제어하는 전자 장치.
  11. 제1항에 있어서,
    상기 통신 장치는,
    디스플레이 장치로부터 상기 디스플레이 장치에서 재생중인 컨텐츠 정보를 수신하고,
    상기 프로세서는,
    상기 수신된 컨텐츠 정보에 대응되는 캐릭터 UI를 생성하고, 상기 생성된 캐릭터 UI가 표시되도록 상기 디스플레이를 제어하는 전자 장치.
  12. 제1항에 있어서,
    상기 프로세서는,
    상기 컨텐츠의 재생 중에 상기 컨텐츠에 대응되는 컨텐츠 정보를 표시하도록 상기 디스플레이를 제어하고, 상기 컨텐츠의 재생이 중지되거나, 음성 명령이 입력된 경우에 상기 캐릭터 UI가 표시되도록 상기 디스플레이를 제어하는 전자 장치.
  13. 전자 장치의 제어 방법에 있어서,
    컨텐츠 재생 명령이 입력되면, 상기 컨텐츠에 대응되는 소리를 출력하는 단계;
    상기 컨텐츠에 대응되는 메타 데이터를 이용하여 상기 컨텐츠에 대응되는 캐릭터 UI를 생성하는 단계; 및
    상기 생성된 캐릭터 UI를 표시하는 단계;를 포함하는 제어 방법.
  14. 제13항에 있어서,
    상기 캐릭터 UI를 생성하는 단계는,
    상기 메타 데이터에 포함된 장르 정보, 가수 정보 및 제목 정보 중 적어도 하나의 정보를 이용하여 상기 캐릭터 UI에 적용될 소품 컨텐츠를 결정하고, 상기 결정된 소품 컨텐츠를 조합하여 상기 캐릭터 UI를 생성하는 제어 방법.
  15. 제14항에 있어서,
    상기 캐릭터 UI를 생성하는 단계는,
    상기 메타 데이터를 외부 서버에 전송하고, 상기 외부 서버로부터 상기 메타 데이터에 대응되는 캐릭터 UI 데이터를 수신하고, 상기 수신된 캐릭터 UI 데이터를 이용하여 상기 캐릭터 UI를 생성하는 제어 방법.
  16. 제15항에 있어서,
    상기 캐릭터 UI를 생성하는 단계는,
    상기 결정된 소품 컨텐츠에 대한 정보를 외부 서버에 전송하고, 상기 외부 서버로부터 상기 소품 컨텐츠에 대한 정보에 대응되는 소품 컨텐츠 데이터를 수신하여 상기 캐릭터 UI를 생성하는 제어 방법.
  17. 제13항에 있어서,
    상기 전자 장치에 장착된 액세서리 장치의 액세서리 정보를 수신하는 단계;를 더 포함하고,
    상기 캐릭터 UI를 생성하는 단계는,
    상기 액세서리 정보에 대응되는 캐릭터 형상을 결정하고, 상기 결정된 캐릭터 형상과 상기 메타 데이터에 대응되는 소품 컨텐츠를 조합하여 상기 캐릭터 UI를 생성하는 제어 방법.
  18. 제17항에 있어서,
    상기 액세서리 정보는, 상기 액세서리 장치의 색상 정보를 포함하고,
    상기 캐릭터 UI를 생성하는 단계는,
    상기 캐릭터 형상의 피부색 또는 배경이 상기 색상 정보에 대응되는 색을 갖도록 상기 캐릭터 UI를 생성하는 제어 방법.
  19. 제13항에 있어서,
    복수의 안내 음성 모드 중 상기 생성된 캐릭터 UI에 대응되는 안내 음성 모드를 결정하는 단계; 및
    안내 메시지 출력 이벤트가 발생하면, 상기 결정된 안내 음성 모드에 대응되는 목소리로 안내 메시지가 출력하는 단계;를 더 포함하는 제어 방법.
  20. 캐릭터 표시 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록매체에 있어서,
    상기 캐릭터 표시 방법은,
    컨텐츠를 수신하는 단계;
    상기 컨텐츠에 메타 데이터를 이용하여 상기 컨텐츠에 대응되는 캐릭터 UI를 생성하는 단계;를 포함하고,
    상기 캐릭터 UI를 생성하는 단계는,
    상기 메타 데이터에 포함된 장르 정보, 가수 정보 및 제목 정보 중 적어도 하나를 이용하여 상기 캐릭터 UI에 적용될 소품 컨텐츠를 결정하고, 상기 결정된 소품 컨텐츠를 조합하여 상기 캐릭터 UI를 생성하는 컴퓨터 판독가능 기록매체.
KR1020220144963A 2022-11-03 2022-11-03 전자 장치 및 그 제어 방법 KR20240065344A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220144963A KR20240065344A (ko) 2022-11-03 2022-11-03 전자 장치 및 그 제어 방법
PCT/KR2023/014162 WO2024096311A1 (ko) 2022-11-03 2023-09-19 전자 장치 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220144963A KR20240065344A (ko) 2022-11-03 2022-11-03 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20240065344A true KR20240065344A (ko) 2024-05-14

Family

ID=90930728

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220144963A KR20240065344A (ko) 2022-11-03 2022-11-03 전자 장치 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20240065344A (ko)
WO (1) WO2024096311A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4784156B2 (ja) * 2005-05-31 2011-10-05 株式会社ケンウッド 複数のキャラクタによる音声案内を行う音声合成装置、音声合成方法、そのプログラム及びこのプログラムが記録された情報記録媒体
KR20090002292A (ko) * 2007-06-26 2009-01-09 삼성전자주식회사 가상 캐릭터를 동기화하고 공유하는 장치 및 방법
US20110022620A1 (en) * 2009-07-27 2011-01-27 Gemstar Development Corporation Methods and systems for associating and providing media content of different types which share atrributes
KR102160636B1 (ko) * 2014-02-21 2020-09-28 삼성전자주식회사 전자 장치 및 입출력 장치를 제어하는 방법
KR20160076347A (ko) * 2014-12-22 2016-06-30 삼성전자주식회사 액세서리 정보에 기초하는 ui를 제공하는 전자 장치 및 방법

Also Published As

Publication number Publication date
WO2024096311A1 (ko) 2024-05-10

Similar Documents

Publication Publication Date Title
US10397643B2 (en) Electronic device for identifying peripheral apparatus and method thereof
US20200058172A1 (en) Systems, methods, and computer-readable media for placing an asset on a three-dimensional model
US20150302651A1 (en) System and method for augmented or virtual reality entertainment experience
CN108876927B (zh) 通过基于故事的增强和/或混合现实体验引导的物理航行
US11762952B2 (en) Artificial reality application lifecycle
KR20200063777A (ko) 디스플레이 장치 및 그 제어 방법
US20200043237A1 (en) Media Compositor For Computer-Generated Reality
US11094105B2 (en) Display apparatus and control method thereof
WO2021143574A1 (zh) 增强现实眼镜、基于增强现实眼镜的ktv实现方法与介质
US20240054734A1 (en) Method and device for presenting an audio and synthesized reality experience
US11431909B2 (en) Electronic device and operation method thereof
WO2023011318A1 (zh) 媒体文件处理方法、装置、设备、可读存储介质及产品
WO2020219248A1 (en) Synchronized multiuser audio
EP3660632A1 (en) Display apparatus and control method thereof
US11928308B2 (en) Augment orchestration in an artificial reality environment
CN105721904B (zh) 显示装置和控制显示装置的内容输出的方法
US20140229823A1 (en) Display apparatus and control method thereof
WO2018095195A1 (zh) 一种包装盒定制方法及装置
US20200073885A1 (en) Image display apparatus and operation method of the same
US20240071377A1 (en) Method and device for presenting a cgr environment based on audio data and lyric data
US20170142484A1 (en) Display device, user terminal device, server, and method for controlling same
US11699289B2 (en) Display device for generating multimedia content, and operation method of the display device
KR20240065344A (ko) 전자 장치 및 그 제어 방법
CN115079816A (zh) 基于音频和身体移动的主动动作
KR20200019486A (ko) 전자 장치, 그 제어 방법 및 전자 시스템