KR20230143872A - 전자 장치 및 그 동작 방법 - Google Patents

전자 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR20230143872A
KR20230143872A KR1020220043062A KR20220043062A KR20230143872A KR 20230143872 A KR20230143872 A KR 20230143872A KR 1020220043062 A KR1020220043062 A KR 1020220043062A KR 20220043062 A KR20220043062 A KR 20220043062A KR 20230143872 A KR20230143872 A KR 20230143872A
Authority
KR
South Korea
Prior art keywords
control signal
electronic device
display
audio
output
Prior art date
Application number
KR1020220043062A
Other languages
English (en)
Inventor
박봉길
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220043062A priority Critical patent/KR20230143872A/ko
Priority to PCT/KR2023/004679 priority patent/WO2023195806A1/ko
Priority to US18/140,091 priority patent/US20240082705A1/en
Publication of KR20230143872A publication Critical patent/KR20230143872A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/162Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

실시예들에 따라, 전자 장치 및 그 동작 방법이 개시된다. 개시된 전자 장치 는, 디스플레이, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치 에서 활성화된 디바이스 콘트롤러 및 상기 전자 장치 에서 활성화된 디바이스를 식별하고, 상기 식별된 디바이스 콘트롤러가 상기 식별된 디바이스와 호환가능한지 판단하고, 상기 식별된 디바이스 콘트롤러가 상기 식별된 디바이스와 호환가능한 것으로 판단됨에 따라, 상기 디바이스 콘트롤러로부터의 제어 신호가 상기 디바이스로 직접 제공되도록 제어하고, 상기 식별된 디바이스 콘트롤러가 상기 식별된 디바이스와 호환가능하지 않은 것으로 판단됨에 따라, 상기 디바이스 콘트롤러로부터의 제어 신호를 상기 디바이스가 인식할 수 있는 제어 신호로 변환하고, 변환된 제어 신호를 상기 디바이스로 제공되도록 제어한다.

Description

전자 장치 및 그 동작 방법{An electronic apparatus and a method of operating the electronic apparatus}
다양한 실시예들은 전자 장치 및 그 동작 방법에 관한 것으로, 보다 구체적으로는, 전자 장치에 표시되는 컨텐츠를 제어하는 사용자 입력을 처리하는 전자 장치 및 그 동작 방법에 관한 것이다.
클라우드 게임은 콘솔이나 게임용 PC가 없어도 고사양 게임을 언제 어디서나 클라우드를 통해 이용할 수 있는 게임을 말한다. 클라우드 게임의 모든 연산은 클라우드 서버에서 처리되고 결과는 동영상 데이터로 실시간 압축 전송되어 사용자 단말에서는 복호화 및 화면 표시 동작만 처리될 수 있다. 따라서, 클라우드 게임은 저사양 PC나 저가의 모바일 장치에서도 네트워크 속도만 뒷받침 되어 준다면 고사양의 실감 게임을 제약 없이 즐길 수 있는 장점이 있다.
다만 클라우드 게임 환경에서 키 입력에 대한 시각적인 피드백이 사용자에게 제공되기 위해서는 다양한 처리 시간이 요구된다. 사용자의 키 입력으로부터 시각적인 피드백이 제공되기 까지의 시간은, 사용자의 컨트롤러 입력이 네트워크를 거쳐 클라우드 서버로 전송되는 시간, 해당 컨트롤러 입력에 반응하여 클라우드 서버가 게임의 다음 화면을 갱신하는 동작을 처리하는 시간, 생성된 다음 화면이 클라우드 서버에 의해 영상 압축되는 시간 및 압축된 영상이 네트워크를 통해 사용자 단말기까지 전송되는 시간, 마지막으로 사용자 단말기가 수신한 영상을 복호화 하여 단말기의 화면에 표시하는 데 걸리는 시간 등을 포함할 수 있다. 따라서 이러한 일련의 시간 지연들이 연쇄적으로 누적되어 통상 100ms 전후의 응답 지연을 발생시키는 문제가 있다. 이러한 응답 지연 값이 기대 이상으로 클 경우 게임 플레이어의 흥미를 떨어뜨리게 되어 클라우드 게임 시스템을 구성할 때 매우 중요하게 관리되어야 하는 핵심적인 품질 속성이라 할 수 있다. 이러한 품질 속성을 계량화 한 것을 레이턴시(Latency)라고 부르는데, 레이턴시는 컨트롤러의 키 입력 시점을 t1 이라 하고, 그 결과가 단말의 화면에 반영되어 화면이 갱신되는 시점을 t2라고 했을 때, t2-t1의 값으로 정의되는 것이 일반적이다.
클라우드 게임에서 레이턴시를 줄이기 위한 기술중의 하나로 MEC(Mobile Edge Computing) 기술이 있다. MEC 기술은 5G 모바일 디바이스의 응답 시간을 줄여 클라우드 게임뿐 아니라 AR/VR이나 자율 주행과 같이 빠른 응답 시간이 요구되는 서비스에 이용할 목적으로 도입되었다. MEC는, 기존 데이터 서버를 통해 제공되던 서비스를 교환국 내에 설치함으로써 모바일 단말 환경에서의 데이터 전송 단계를 기존 4단계에서 2단계로 단축하여 전송 지연을 단축할 수 있다.
또한 클라우드 게임의 레이턴시를 단축하기 위해 압축 영상의 해상도와 프레임 레이트(frame rate)를 작게 조정하는 방법이 있다.
이와 같은 기술들은 클라우드 게임의 레이턴시를 줄이기 위해 클라우드 서버의 데이터 송출 과정 혹은 경로에 대한 최적화에 집중하고 있으며, 상대적으로 단말에서의 최적화에 대한 논의는 크게 활발하지 않다. 단말에서의 처리만으로 사용자에게 즉시적인 피드백을 효과적으로 제공할 수 있는 방법이 요구된다.
다양한 실시예들은, 클라우드 게임에서 컨트롤러 키 입력에 대해 단말의 영상 출력이 클라우드 서버와의 별도 통신 없이 즉각적인 시각적인 피드백을 화면에 제공함으로써 사용자로 하여금 빠른 반응성을 느끼게 해주는 영상 출력 제어를 가능하게 하는 전자 장치 및 그 동작 방법을 제공하는 것을 목적으로 한다.
일 실시예에 따른 전자 장치는, 통신 인터페이스, 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 서버로부터 상기 통신 인터페이스를 통해 수신된 컨텐츠를 표시하도록 디스플레이를 제어하고, 상기 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하고, 상기 획득된 제어 신호에 기반하여 상기 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 상기 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하고, 상기 획득된 영상 출력 제어 신호에 기반하여 상기 디스플레이에 표시되는 컨텐츠를 처리하고, 상기 처리된 컨텐츠를 표시하도록 상기 디스플레이를 제어한다.
일 실시예에 따라 상기 서버로부터 수신되는 컨텐츠는 상기 디스플레이 화면 크기보다 더 큰 크기를 가지는 오리지널 영상 데이터를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 영상 출력 제어 신호에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 결정식별하고, 상기 결정식별된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 제어 신호가 좌, 우, 상, 하 방향키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 좌, 우, 상, 하 방향 중 하나로 이동시키고, 이동된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 제어 신호가 전진 키 또는 후진 키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 축소 또는 확대 처리하고, 상기 축소 또는 확대 처리된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따라 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 영상 출력 제어 신호를 저장하는 데이터베이스를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 영상 출력 제어 신호를 획득할 수 있다.
일 실시예에 따라 상기 서버로부터 수신되는 컨텐츠는 오디오 데이터를 더 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 획득된 제어 신호에 대응하는 오디오 출력 제어 신호를 획득하고, 상기 획득된 제어 신호에 기반하여 상기 서버로부터 수신되는 오디오 데이터를 처리하고, 상기 처리된 오디오 데이터를 출력하도록 오디오 출력부를 제어할 수 있다.
일 실시예에 따라 상기 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 오디오 출력 제어 신호를 저장하는 데이터베이스를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 오디오 출력 제어 신호를 획득할 수 있다.
일 실시예에 따라 상기 오디오 출력 제어 신호는 상기 이펙트 사운드 제어 신호를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 획득된 제어 신호에 대응하는 상기 이펙트 사운드 제어 신호를 획득하고, 상기 획득된 이펙트 사운드 제어 신호에 기반하여 이펙트 사운드를 처리하고, 상기 서버로부터 수신된 오디오 데이터와 상기 처리된 이펙트 사운드를 믹싱하여 출력하도록 상기 오디오 출력부를 제어할 수 있다.
일 실시예에 따라 상기 오디오 출력 제어 신호는 오디오 파라미터 제어 신호를 포함하고, 상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 획득된 제어 신호에 대응하는 상기 오디오 파라미터 제어 신호를 획득하고, 상기 획득된 오디오 파라미터 제어 신호에 따라 상기 서버로부터 수신된 오디오 데이터를 조정하고, 조정된 오디오 데이터를 출력하도록 상기 오디오 출력부를 제어할 수 있다.
일 실시예에 따라 전자 장치의 동작 방법은, 서버로부터 수신된 컨텐츠를 디스플레이에 표시하는 동작, 상기 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하는 동작, 상기 획득된 제어 신호에 기반하여 상기 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 상기 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하는 동작, 상기 획득된 영상 출력 제어 신호에 기반하여 상기 디스플레이에 표시되는 컨텐츠를 처리하는 동작, 및 상기 처리된 컨텐츠를 표시하는 동작을 포함한다.
일 실시예에 따라 전자 장치의 동작 방법의 구현을 위해 전자 장치의 프로세서에 의해 실행되는 하나 이상의 프로그램이 기록된 컴퓨터 판독가능 기록 매체에 있어서, 상기 전자 장치의 동작 방법은, 서버로부터 수신된 컨텐츠를 디스플레이에 표시하는 동작, 상기 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하는 동작, 상기 획득된 제어 신호에 기반하여 상기 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 상기 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하는 동작, 상기 획득된 영상 출력 제어 신호에 기반하여 상기 디스플레이에 표시되는 컨텐츠를 처리하는 동작, 및 상기 처리된 컨텐츠를 표시하는 동작을 포함한다.
본 개시서의 다양한 실시예들에 따르면, 클라우드 게임에서 컨트롤러 키 입력에 대해 단말의 영상 출력이 클라우드 서버로부터의 응답을 수신하기 전이라도 즉각적인 시각적인 피드백을 화면에 제공함으로써 사용자로 하여금 빠른 반응성을 느끼게 해줄 수 있다.
도 1은 다양한 실시예들에 따라 서버로부터 스트리밍되는 컨텐츠의 제어 입력에 대해 보다 빠른 시각적 피드백 제공을 가능하게 하는 시스템을 설명하기 위한 참고도이다.
도 2는 일 실시예에 따라 전자 장치의 블록도의 일 예이다.
도 3은 일 실시예에 따라 전자 장치 100의 구체적인 블록도이다.
도 4는 일 실시예에 따라 제어 신호 데이터베이스에 저장되는 매핑 테이블의 일 예를 나타낸다.
도 5는 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다.
도 6은 일 실시예에 따라 사용자 입력에 대응하는 제어 신호를 처리한 원격 처리 결과와 로컬 처리 결과를 시간의 흐름에 따라 출력하는 예를 나타낸다.
도 7은 일 실시예에 따라 전자 장치 100에서 사용자 입력에 대응하는 제어 신호에 기반하여 로컬 처리 결과인 프레임을 생성하는 방법의 일 예를 설명하기 위한 참고도이다.
도 8은 일 실시예에 따라 전자 장치 100에서 사용자 입력에 대응하는 제어 신호에 기반하여 로컬 처리 결과인 프레임을 생성하는 방법의 다른 예를 설명하기 위한 참고도이다.
도 9는 일 실시예에 따라 전자 장치 100에서 사용자 입력에 대응하는 제어 신호에 기반하여 로컬 처리 결과인 프레임을 생성하는 방법의 또 다른 예를 설명하기 위한 참고도이다.
도 10은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 영상 출력을 제어하는 과정의 일 예를 나타내는 흐름도이다.
도 11은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 영상 출력을 제어하는 로컬 처리 모듈의 일 예를 나타낸다.
도 12는 일 실시예에 따라 서버 컴퓨터 200로부터 수신되는 프레임과 전자 장치 100에서 디스플레이에 표시되는 프레임의 크기를 설명하기 위한 참고도이다.
도 13은 일 실시예에 따라 우측 방향키 입력에 따른 영상 출력 제어를 설명하기 위한 참고도이다.
도 14는 일 실시예에 따라 전진 방향키 입력에 따른 영상 출력 제어를 설명하기 위한 참고도이다.
도 15는 일 실시예에 따라 후진 방향키 입력에 따른 영상 출력 제어를 설명하기 위한 참고도이다.
도 16은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 영상 출력을 제어하는 과정의 일 예를 나타내는 흐름도이다.
도 17은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 오디오 출력을 제어하는 로컬 처리 모듈의 일 예를 나타낸다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서의 실시예에서 "사용자"라는 용어는 제어 장치를 이용하여 컴퓨팅 장치 또는 전자 장치의 기능 또는 동작을 제어하는 사람을 의미하며, 시청자, 관리자 또는 설치 기사를 포함할 수 있다.
도 1은 다양한 실시예들에 따라 서버로부터 스트리밍되는 컨텐츠의 제어 입력에 대해 보다 빠른 시각적 피드백 제공을 가능하게 하는 시스템을 설명하기 위한 참고도이다.
도 1을 참조하면, 시스템은 전자 장치 100, 서버 컴퓨터 200 및 전자 장치 100와 서버 컴퓨터 200의 통신을 가능하게 하는 통신 네트워크 50를 포함할 수 있다.
서버 컴퓨터 200는 통신 네트워크 50를 통해서 전자 장치 100와 통신할 수 있다. 서버 컴퓨터 200는 전자 장치 100로부터의 컨텐츠 요청에 따라 컨텐츠를 전자 장치 100로 제공할 수 있다. 서버 컴퓨터 200가 전자 장치 100로 제공하는 컨텐츠는 비디오 컨텐츠, 오디오 컨텐츠, 게임 컨텐츠 등 다양한 컨텐츠를 포함할 수 있다. 서버 컴퓨터 200에서 게임 컨텐츠를 전자 장치 100로 제공하는 경우, 게임 컨텐츠에 대한 사용자 입력은 전자 장치 100로부터 수신하고 서버 컴퓨터 200는 사용자 입력에 대응하는 연산 및 처리를 수행하고, 처리 결과를 통신 네트워크 50를 통해서 전자 장치 100로 전송할 수 있다.
전자 장치 100는 통신 네트워크 50를 통해서 서버 컴퓨터 200와 통신할 수 있다. 전자 장치 100는 컨텐츠를 요청하는 사용자 입력에 따라 서버 컴퓨터 200로 컨텐츠 요청을 전송하고 이에 대한 응답으로 요청된 컨텐츠를 서버 컴퓨터 200로부터 수신하여 표시할 수 있다. 전자 장치 100가 서버 컴퓨터 200로부터 게임 컨텐츠를 수신하여 표시하는 경우, 전자 장치 100는 표시된 게임 컨텐츠를 제어하는 사용자 입력을 수신하면, 수신된 사용자 입력을 서버 컴퓨터 200로 전달하고, 서버 컴퓨터 200로부터 사용자 입력에 대응하여 처리된 결과 영상을 수신하여 표시할 수 있다.
전자 장치 100는 다양한 사용자 입력 수단을 통해서 컨텐츠를 제어하는 사용자 입력을 수신할 수 있다. 전자 장치 100는 도 1에 도시된 콘트롤러 70로부터 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 콘트롤러 70는 게임 전용 콘트롤러, 리모트 콘트롤러, 스마트 폰과 같은 스마트 디바이스를 포함할 수 있다. 또한 전자 장치 100는 전자 장치 100 에 구비된 사용자 입력 수단을 통해서 사용자 입력을 수신할 수 있음은 물론이다.
도 1을 참조하면, 기존에는 전자 장치 100는 디스플레이 120에 표시되는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 콘트롤러 70로부터 수신하면, 수신된 제어 신호를 패스 10을 통해 서버 컴퓨터 200로 전달한다. 제어 신호를 수신한 서버 컴퓨터 200는 원격 처리 모듈 250을 통해 제어 신호에 대응하는 연산이나 처리를 수행하고, 처리 결과를 패스 20을 통해 전자 장치 100로 전달한다. 이와 같이 컨텐츠를 제어하는 제어 신호의 처리를 서버 컴퓨터 200의 원격 처리 모듈 250에서 수행하고 이 처리 결과를 다시 통신 네트워크 50를 통해서 수신하게 되므로 전자 장치 100에서 사용자 입력에 대응하여 표시되는 결과 영상의 출력은 지연이 발생하게 될 수 밖에 없으므로 결국 컨텐츠를 이용하는 사용자의 몰입감을 저하시킬 수 밖에 없다.
따라서 본 개시서에 개시된 실시예들에서는 이와 같이 사용자 입력에 대응하는 피드백이 지연되는 것을 감소시키기 위해 컨텐츠의 제어를 위한 제어 신호를 원격 처리를 위해서 서버 컴퓨터 200로 전달함과 함께 빠른 피드백을 위해 제어 신호가 패스 30을 통해 전달되는 전자 장치 100 내부의 로컬 처리 모듈 90를 마련한다. 로컬 처리 모듈 90는 콘트롤러 70로부터의 제어 신호를 수신하고, 이러한 제어 신호를 처리하여 처리 결과를 즉각적으로 디스플레이 120로 제공할 수 있다. 따라서, 전자 장치 100는 제어 신호를 원격으로 처리한 원격 처리 결과를 서버 컴퓨터 200로부터 수신하기 전이라도 미리 제어 신호를 로컬에서 처리한 로컬 처리 결과를 디스플레이 120에 표시해줌으로써 사용자로 하여금 사용자 입력에 대응하는 즉각적인 피드백이 발생한 것으로 느끼게 해줄 수 있다.
전자 장치 100는 디스플레이를 구비하여 영상 컨텐츠, 비디오 컨텐츠, 게임 컨텐츠, 그래픽 컨텐츠 등을 표시할 수 있는 장치를 나타낼 수 있다. 전자 장치 100는 디바이스 200로부터 수신되는 영상이나 컨텐츠를 출력 또는 표시할 수 있다. 전자 장치 100는 예를 들어, 네트워크 TV, 스마트 TV, 인터넷 TV, 웹 TV, IPTV, PC 등과 같이 컨텐츠를 수신하여 출력할 수 있는 다양한 형태의 전자 장치를 포함할 수 있다. 전자 장치 100는 컨텐츠를 수신하여 표시하는 측면이라는 점에서 전자 장치로 언급될 수 있는 것이고, 그 외에도 컨텐츠 수신 장치, 싱크 장치, 전자 장치, 컴퓨팅 장치, 디스플레이 장치 등으로 언급될 수도 있다.
일 실시예에 따른 전자 장치 100는, 서버 컴퓨터 200로부터 수신된 컨텐츠를 표시하도록 디스플레이를 제어하고, 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하고, 획득된 제어 신호에 기반하여 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하고, 획득된 영상 출력 제어 신호에 기반하여 디스플레이에 표시되는 컨텐츠를 처리하고, 처리된 컨텐츠를 표시하도록 디스플레이를 제어할 수 있다.
일 실시예에 따른 전자 장치 100는, 디스플레이 크기보다 더 큰 크기를 가지는 오리지널 영상 데이터를 포함하는 컨텐츠를 수신하고, 상기 영상 출력 제어 신호에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이에 출력될 영역을 결정하고, 상기 결정된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따른 전자 장치 100는, 상기 제어 신호가 좌, 우, 상, 하 방향키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 좌, 우, 상, 하 방향 중 하나로 이동시키고, 이동된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따른 전자 장치 100는, 상기 제어 신호가 전진 키 또는 후진 키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 축소 또는 확대 처리하고, 상기 축소 또는 확대 처리된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따라 전자 장치 100는 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 영상 출력 제어 신호를 저장하는 데이터베이스를 포함하고, 상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 영상 출력 제어 신호를 획득할 수 있다.
일 실시예에 따른 전자 장치 100는, 상기 획득된 제어 신호에 대응하는 오디오 출력 제어 신호를 획득하고, 상기 획득된 제어 신호에 기반하여 상기 서버로부터 수신되는 오디오 데이터를 처리하고, 상기 처리된 오디오 데이터를 출력하도록 오디오 출력부를 제어할 수 있다.
일 실시예에 따른 전자 장치 100는, 상기 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 오디오 출력 제어 신호를 저장하는 데이터베이스를 포함하고, 상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 오디오 출력 제어 신호를 획득할 수 있다.
일 실시예에 따른 전자 장치 100는, 상기 획득된 제어 신호에 대응하는 상기 이펙트 사운드 제어 신호를 획득하고, 상기 획득된 이펙트 사운드 제어 신호에 기반하여 이펙트 사운드를 처리하고, 상기 서버로부터 수신된 오디오 데이터와 상기 처리된 이펙트 사운드를 믹싱하여 출력하도록 상기 오디오 출력부를 제어할 수 있다.
일 실시예에 따른 전자 장치 100는, 상기 획득된 제어 신호에 대응하는 상기 오디오 파라미터 제어 신호를 획득하고, 상기 획득된 오디오 파라미터 제어 신호에 따라 상기 서버로부터 수신된 오디오 데이터를 조정하고, 조정된 오디오 데이터를 출력하도록 상기 오디오 출력부를 제어할 수 있다.
도 2는 일 실시예에 따라 전자 장치의 블록도의 일 예이다.
도 2를 참조하면, 전자 장치 100는 서버 컴퓨터 200로부터 수신되는 영상 신호 및/또는 오디오 신호를 처리하여 출력할 수 있다.
전자 장치 100는 통신부 110, 디스플레이 120, 사용자 입력부 130, 메모리 140, 프로세서150을 포함할 수 있다.
통신부 110는 프로세서 150의 제어에 따라 서버 컴퓨터 200로 컨텐츠 요청을 수신하고, 이에 대한 응답으로 서버 컴퓨터 200로부터 요청된 컨텐츠를 수신할 수 있다. 또한 통신부 110는 프로세서 150의 제어에 따라 전자 장치 100에서 표시되는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 서버 컴퓨터 200로 전송하고, 이에 대한 응답으로 제어 신호에 따라 처리된 컨텐츠 처리 결과를 서버 컴퓨터 200로부터 수신할 수 있다.
디스플레이 120는 프로세서 150의 제어에 따라 서버 컴퓨터 200로부터 수신된 컨텐츠를 표시할 수 있다.
도 2에 도시된 예에서는 전자 장치 100가 디스플레이 120를 포함하는 것으로 도시되어 있지만 개시된 실시예들은 반드시 이에 한정되는 것은 아니다. 전자 장치 100는 디스플레이 120를 구비하지 않고, 전자 장치 100는 비디오/오디오 출력 포트를 통해 외부 디스플레이나 모니터에 전자 장치 100에서 처리된 영상을 출력할 수도 있다.
사용자 입력부 130는 디스플레이 120에 표시된 컨텐츠를 제어하는 사용자 입력을 수신할 수 있다. 사용자 입력부 130는 콘트롤러 70로부터의 제어 신호를 수신하는 통신 수단, 또는 전자 장치 100에 마련된 사용자 입력 수단을 포함할 수 있다.
메모리 140는 전자 장치 100의 동작에 관련된 프로그램, 전자 장치 100의 동작 중에 발생하는 각종 데이터를 저장할 수 있다.
프로세서 150는 전자 장치 100의 전반적인 동작을 제어한다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 서버 컴퓨터 200로부터 수신된 컨텐츠를 표시하도록 디스플레이를 제어하고, 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하고, 획득된 제어 신호에 기반하여 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하고, 획득된 영상 출력 제어 신호에 기반하여 디스플레이에 표시되는 컨텐츠를 처리하고, 처리된 컨텐츠를 표시하도록 디스플레이를 제어할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 디스플레이 화면 크기보다 더 큰 크기를 가지는 오리지널 영상 데이터를 포함하는 컨텐츠를 수신하고, 상기 영상 출력 제어 신호에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 결정하고, 상기 결정된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 상기 제어 신호가 좌, 우, 상, 하 방향키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 좌, 우, 상, 하 방향 중 하나로 이동시키고, 이동된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 상기 제어 신호가 전진 키 또는 후진 키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 축소 또는 확대 처리하고, 상기 축소 또는 확대 처리된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 영상 출력 제어 신호를 저장하는 데이터베이스를 포함하고, 상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 영상 출력 제어 신호를 획득할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 상기 획득된 제어 신호에 대응하는 오디오 출력 제어 신호를 획득하고, 상기 획득된 제어 신호에 기반하여 상기 서버로부터 수신되는 오디오 데이터를 처리하고, 상기 처리된 오디오 데이터를 출력하도록 오디오 출력부를 제어할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 상기 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 오디오 출력 제어 신호를 저장하는 데이터베이스를 포함하고, 상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 오디오 출력 제어 신호를 획득할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 상기 획득된 제어 신호에 대응하는 상기 이펙트 사운드 제어 신호를 획득하고, 상기 획득된 이펙트 사운드 제어 신호에 기반하여 이펙트 사운드를 처리하고, 상기 서버로부터 수신된 오디오 데이터와 상기 처리된 이펙트 사운드를 믹싱하여 출력하도록 상기 오디오 출력부를 제어할 수 있다.
일 실시예에 따른 프로세서 150는 메모리 140에 저장된 인스트럭션을 실행함으로써, 상기 획득된 제어 신호에 대응하는 상기 오디오 파라미터 제어 신호를 획득하고, 상기 획득된 오디오 파라미터 제어 신호에 따라 상기 서버로부터 수신된 오디오 데이터를 조정하고, 조정된 오디오 데이터를 출력하도록 상기 오디오 출력부를 제어할 수 있다.
도 3은 일 실시예에 따라 전자 장치 100의 구체적인 블록도이다.
도 3을 참조하면, 전자 장치 100는 통신부 110, 디스플레이 120, 사용자 입력부 130, 메모리 140, 프로세서150 외에 영상처리부 160, 오디오 처리부 165, 오디오 출력부 170, 감지부 180, 수신부 190를 더 포함할 수 있다.
통신부 110는 전자 장치 100과 무선 통신 시스템 사이 또는 전자 장치 100과 다른 전자 장치가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부 110는 이동통신 모듈 111, 무선 인터넷 모듈 112 및 근거리 통신 모듈 113을 포함할 수 있다.
이동통신 모듈 111는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호출 신호, 화상 통화 호출 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈 112은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 디바이스에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(예를 들어, WiFi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈 113은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
전자 장치 100는 통신부 110에 마련된 이동통신 모듈 111 또는 무선 인터넷 모듈 112를 통하여 서버 컴퓨터 200와 통신을 수행할 수 있다. 전자 장치 100는 통신부 110를 통하여 서버 컴퓨터 200와 통신을 수행함으로써, 서버 컴퓨터 200로부터 컨텐츠를 수신하거나, 서버 컴퓨터 200로 콘트롤러 70로부터의 제어 신호를 전달하거나 또는 서버 컴퓨터 200로부터 제어 신호에 기반하여 원격 처리 결과를 수신할 수 있다.
전자 장치 100는 통신부 110에 마련된 무선 인터넷 모듈 112 또는 근거리 통신 모듈 113을 통하여 컨텐츠를 제어하는 콘트롤러 70로부터의 제어 신호를 수신할 수 있다.
디스플레이 120는 영상 처리부 160로부터 수신된 영상 신호를 화면에 표시할 수 있다.
영상 처리부 160는 프로세서 150의 제어에 따라, 수신부 190 또는 통신부 110로부터 수신되는 영상신호를 처리하여 디스플레이 120로 출력할 수 있다. 영상 처리부 160는, 전자 장치 100가 수신한 영상 신호에 대한 처리를 수행한다. 영상 처리부 160에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
특히 일 실시예에 따라 영상 처리부 160는 로컬 처리 모듈 161과 제어신호 데이터 베이스 162를 포함할 수 있다.
로컬 처리 모듈 161은 디스플레이 120에 표시된 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신하고, 이러한 제어 신호에 따라 컨텐츠를 처리하기 위한 제어 신호를 획득하고, 획득된 컨텐츠 처리를 위한 제어 신호에 기반하여 영상 출력이나 오디오 출력을 제어할 수 있다. 로컬 처리 모듈 161은 사용자 입력에 대응하는 제어 신호에 기반하여 컨텐츠 처리를 위한 제어 신호를 획득하기 위해 제어 신호 데이터베이스 162를 참조할 수 있다.
제어 신호 데이터베이스 162는 사용자 입력에 대응하는 제어 신호를 영상 출력을 위한 제어 신호나 오디오 출력을 위한 제어 신호를 변환시켜주기 위한 매핑 테이블을 포함할 수 있다. 제어 신호 데이터베이스 162에 포함되는 매핑 테이블은 도 4를 참조하여 설명한다.
오디오 처리부 165는 프로세서 150의 제어에 따라, 수신부 190 또는 통신부 110로부터 수신되는 오디오 신호를 아날로그 오디오 신호로 변환하여 오디오 출력부 170로 출력할 수 있다. 오디오 처리부 165는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 한편, 오디오 처리부 165는 복수의 컨텐츠에 대응되는 오디오를 처리하기 위해 복수의 오디오 처리 모듈을 구비할 수 있다.
도 3에 도시된 예에서는 영상처리부 160과 오디오 처리부 165가 제어부 150와 별도로 구성되어 있지만, 실시예들은 이에 한정되지 않는다. 개시된 실시예들에 따라서 제어부 150는 영상 처리부 160와 오디오 처리부 165를 포함함으로써, 제어부 150는 영상 처리부 160의 기능 및 오디오 처리부 165의 기능을 수행할 수 있다.
오디오 출력부 170는 수신되는 아날로그 오디오 신호를 스피커를 통해 출력할 수 있다. 오디오 출력부 170는 스피커, 헤드폰 출력 단자 또는 S/PDIF(Sony/Philips Digital Interface: 출력 단자 중 적어도 하나 또는 그 조합을 포함할 수 있다.
감지부 180는 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지한다.
마이크 181는 사용자의 발화(utterance)된 음성을 수신한다. 마이크 181는 수신된 음성을 전기 신호로 변환하여 프로세서 150로 출력할 수 있다. 사용자 음성은 예를 들어, 전자 장치 100의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 마이크 181의 인식 범위는 마이크 181에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크 181의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
카메라 182는 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신한다. 예를 들어, 카메라 182의 인식 범위는 카메라 182에서부터 사용자까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 모션은 예를 들어, 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 사용자 일부분의 모션 등을 포함할 수 있다. 카메라 182는 프로세서 150의 제어에 따라 수신된 영상을 전기 신호로 변환하여 프로세서 150로 출력할 수 있다. 프로세서 150는 수신된 모션의 인식 결과를 이용하여 전자 장치 100에 표시되는 메뉴를 선택하거나 모션 인식 결과에 대응되는 제어를 할 수 있다. 예를 들어, 채널 조정, 볼륨 조정, 지시자 이동을 포함할 수 있다.
광수신부 183는 외부의 콘트롤러에서부터 수신되는 광 신호(제어 신호를 포함)를 수신한다. 광수신부 183는 콘트롤러 70로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. 수신된 광 신호로부터 프로세서 150의 제어에 의해 제어 신호가 추출될 수 있다.
전자 장치 100는 감지부 180의 마이크 181을 통해서 사용자의 음성을 포함하는 오디오 데이터를 수신할 수 있을 뿐만 아니라 리모트 콘트롤러 320부터 사용자의 음성을 포함하는 오디오 데이터를 수신할 수 있다. 구체적으로, 리모트 콘트롤러 320는 마이크를 구비하고, 마이크를 통해서 사용자의 음성 신호를 수신하면 이로부터 디지털 변환된 오디오 데이터를 획득하고 오디오 데이터를 블루투스 프로토콜이나 와이파이 프로토콜에 따른 무선 통신 기술을 이용하여 전자 장치 100로 전송하고 전자 장치 100는 리모트 콘트롤러 320로부터 오디오 데이터를 수신할 수 있다.
또한 전자 장치 100는 리모트 콘트롤 어플리케이션이 설치된 스마트 기기, 예를 들어 스마트폰 330를 통해서 사용자의 음성을 포함하는 오디오 데이터를 수신할 수 있다. 구체적으로, 스마트 기기는 설치된 리모트 콘트롤 어플리케이션을 실행하여 전자 장치 100을 제어하거나 음성 인식 기능을 수행할 수 있다. 스마트 기기는 리모트 콘트롤 어플리케이션 또는 그 외 다른 어플리케이션 등을 통해 사용자의 음성 신호를 수신하면 이로부터 디지털 변환된 오디오 데이터를 획득하고 오디오 데이터를 블루투스 프로토콜이나 와이파이 프로토콜에 따른 무선 통신 기술을 이용하여 전자 장치 100로 전송하고 전자 장치 100는 스마트 기기로부터 오디오 데이터를 수신할 수 있다. 리모트 콘트롤 어플리케이션을 실행하여 전자 장치 100를 제어하는 스마트 기기는 스마트 폰 뿐만 아니라, AI 스피커 나 그 외 다양한 형태의 개인 휴대 장치 등을 포함할 수 있다.
수신부 190는 프로세서 150의 제어에 따라 외부 입력 장치로부터 수신되는 영상신호 및 오디오신호를 연결된 프로토콜에 따라 수신하여 이를 영상 처리부 160 및 오디오 처리부 165로 출력할 수 있다.
수신부 190는 프로세서 150의 제어에 의해 전자 장치 100의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신할 수 있다. 수신부 190는 HDMI 포트(High-Definition Multimedia Interface port, 191, 컴포넌트 잭(component jack, 192), PC 포트(PC port, 193), 및 USB 포트(USB port, 194) 중 하나를 포함하거나, 하나 이상의 조합을 포함할 수 있다. 수신부 190는 HDMI 포트 이외에도 디스플레이 포트 (DisplayPort; DP), 썬더볼트 (Thunderbolt), MHL (Mobile High-Definition Link)를 더 포함할 수 있다.
메모리 140는 전자 장치 100의 동작에 관련된 프로그램, 전자 장치 100의 동작 중에 발생하는 각종 데이터를 저장할 수 있다.
일 실시예에 따라 메모리 140는 프로세서 150의 제어에 의해 전자 장치 100를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 140는 전자 장치 100 및 프로세서 150의 제어를 위한 제어 프로그램, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
일 실시예에서 메모리 라는 용어는 메모리 140, 프로세서 150에 포함될 수 있는, 롬, 램, 또는 전자 장치 100에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리)를 포함한다. 또한, 메모리 140는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
프로세서 150는 전자 장치 100의 전반적인 동작 및 전자 장치 100의 내부 구성요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 프로세서 150는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 메모리 140에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
프로세서 150는 전자 장치 100의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 전자 장치 100에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM), 전자 장치 100의 제어를 위한 제어 프로그램이 저장된 롬(ROM)를 포함할 수 있다. 프로세서 150는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit)를 포함할 수 있다. 프로세서 150는 코어(core)와 GPU를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서 150는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 또한, 프로세서 150는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서 150는 메인 프로세서(main processor) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor로 구현될 수 있다.
전자 장치 100는 다양한 입력 수단을 통해서 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 예를 들어, 전자 장치 100는 블루투스 통신이나 와이파이 통신을 통해 연결된 게임 콘트롤러 310로부터 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 게임 콘트롤러 310는 하나 이상의 키 또는 버튼을 구비하여, 전자 장치 100는 이와 같은 키 또는 버튼을 누름에 의해 생성되는 제어 신호를 수신할 수 있다. 예를 들어, 전자 장치 100는 블루투스 통신이나 와이파이 통신을 통해 연결된 리모트 콘트롤러 320로부터 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 리모트 콘트롤러 320는 하나 이상의 키 또는 버튼을 구비하여, 전자 장치 100는 이와 같은 키 또는 버튼을 누름에 의해 생성되는 제어 신호를 수신할 수 있다. 예를 들어, 전자 장치 100는 블루투스 통신이나 와이파이 통신을 통해 연결된 스마트폰 330으로부터 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 스마트폰 330는 터치 패드 또는 터치 스크린을 구비하여, 전자 장치 100는 이와 같은 터치 패드 또는 터치 스크린을 통해 수신되는 터치 입력에 대응하는 제어 신호를 수신할 수 있다. 도 3에서는 전자 장치 100가 오디오 출력부 170를 포함하는 것으로 도시되었지만, 개시된 실시예들에서 전자 장치 100에서 처리된 오디오 데이터는 반드시 오디오 출력부 170를 통해서 출력되는 것으로 한정되지 않는다. 전자 장치 100는 전자 장치 100에 유선 또는 무선으로 연결된 오디오 출력부, 예를 들어, 사운드바, 스피커, 헤드셋 등을 통해서 처리된 오디오 데이터를 출력할 수 있다. 도 3을 참조하면, 전자 장치 100는 통신부 110의 근거리 통신 모듈 113을 통해 연결된 블루투스 스피커 350 이나 블루투스 헤드셋 360으로 처리된 오디오 데이터를 출력할 수 있다.
도 3에서는 전자 장치 100가 디스플레이 120를 포함하는 것으로 도시되었지만, 개시된 실시예들은 반드시 이에 한정되지 않는다. 전자 장치 100는 디스플레이 120를 내부에 구비하지 않고 외부 모니터나 디스플레이를 연결하고, 연결된 외부 모니터나 디스플레이에 영상을 전송할 수 있다. 도 3을 참조하면, 전자 장치 100는 수신부 190의 HDMI 포트 191 등에 연결된 외부 디스플레이 장치 340로 컨텐츠 영상을 전송할 수 있다.
도 4는 일 실시예에 따라 제어 신호 데이터베이스에 저장되는 매핑 테이블의 일 예를 나타낸다.
도 4를 참조하면, 콘트롤러 70은 컨텐츠를 제어하기 위한 버튼으로 버튼 #1 71 부터 버튼 #8 78 까지 8개의 버튼을 포함할 수 있다. 일 예에 따라 버튼은 상, 하, 좌, 우 이동을 위한 4방향 이동 버튼 또는 전진 버튼 등을 포함할 수 있다. 이외에도 버튼은 대각선 방향 이동을 포함하는 8방향 이동 버튼, 즉, 상, 하, 좌, 우, 우상, 우하, 좌상, 좌하 버튼 이나 그 외 다양한 형태의 버튼을 포함할 수 있다.
제어 신호 데이터베이스 162는 제어 신호 매핑 테이블 400을 포함할 수 있다. 제어 신호 매핑 테이블 400에는 콘트롤러 70의 각 버튼에 대응하는 제어 신호가 영상 출력 제어 신호나 오디오 출력 제어 신호로 매핑되어 있다. 즉, 제어 신호 매핑 테이블 400은 콘트롤러의 각 버튼에 대응하는 제어 신호 410에, 영상 출력 제어 신호 420와 오디오 출력 제어 신호 430를 매핑한 데이터 구조를 포함할 수 있다. 콘트롤러의 각 버튼에 대응하는 제어 신호 410는 콘트롤러의 각 버튼을 누름에 의해 발생되어 콘트롤러로부터 수신된 제어 신호를 나타낸다. 영상 출력 제어 신호 420는 콘트롤러의 각 버튼에 대응하는 제어 신호에 기반하여 영상 출력을 제어하기 위한 제어 신호로서, 예를 들어, 디스플레이에 출력될 이미지를 상, 하, 좌, 우 방향으로 이동시키는 명령이나 또는 디스플레이에 출력될 이미지의 확대나 축소 명령을 포함할 수 있다. 오디오 출력 제어 신호 430는 콘트롤러의 각 버튼에 대응하는 제어 신호에 기반하여 오디오 출력을 제어하기 위한 제어 신호로서, 오디오 출력부로 출력될 오디오의 파라미터를 제어하는 명령 또는 사운드 이펙트를 제어하는 명령을 포함할 수 있다.
도 4를 참조하면, 제어 신호 매핑 테이블 400은 버튼 #1에 대응하는 제어 신호에 대응하여, 제1 영상 출력 제어 신호와 제1오디오 출력 제어 신호가 매핑되어 있고, 버튼 #2에 대응하는 제어 신호에 대응하여, 제2영상 출력 제어 신호와 제2오디오 출력 제어 신호가 매핑되어 있다. 이와 같은 방식으로 버튼 #8에 대응하는 제어 신호에 대응하여, 제8 영상 출력 제어 신호와 제8오디오 출력 제어 신호가 매핑되어 있다.
도 4에 도시된 예에서는 콘트롤러 70은 게임 콘트롤러의 형태로 도시되어 있으나 콘트롤러는 이에 한정되지 않는다. 콘트롤러 70는 전자 장치 100 자체에 구비된 사용자 입력 수단, 터치 패드를 포함하는 콘트롤러, 또는 전자 장치 100에 표시된 컨텐츠의 제어를 위한 기능을 가지며 전자 장치 100와 페어링된 스마트 디바이스 등을 포함할 수 있다.
또한 도 4에 도시된 예에서 콘트롤러 70은 버튼 형태의 입력 수단을 포함하는 것으로 도시되어 있지만 이에 한정되지 않으며 개시된 실시예들에 따라 콘트롤러 70는 조이스틱과 같은 입력 수단을 포함할 수 있다.
조이스틱(Joystick)은 '스틱'이라 불리는 긴 막대형의 레버를 잡고 상하좌우로 밀거나 당겨서 조작하는 방식의 입력장치로, 4각, 8각, 또는 무각의 레버 가이드로 구현될 수 있다. 가이드는 레버의 울타리 같은 것으로, 레버가 움직일 수 있는 최대 영역이 어떠한 모양을 하고 있는지에 따라 4각, 8각, 무각으로 나뉠 수 있으며, 이와 같은 조이스틱의 입력에 따라 360도 방향 제어도 가능하다. 도 4에 도시된 예에서 콘트롤러 70가 하나 이상의 버튼을 구비하는 경우에는 각 버튼마다 각 버튼에 대응하는 제어 신호에 영상 출력 제어 신호나 오디오 출력 제어 신호를 매핑시켰지만, 조이스틱과 같은 360도 방향 제어가 가능한 입력 수단의 경우에는, 조이스틱의 움직임에 따른 각 각도에 대응하는 제어 신호에 영상 출력 제어 신호나 오디오 출력 제어 신호를 매핑시켜 제어 신호 매핑 테이블을 구성할 수 있을 것이다.
도 4에 도시된 예에서는 제어 신호 매핑 테이블 400은 각 제어 신호에 대응하여 영상 출력 제어 신호와 오디오 출력 제어 신호가 모두 매핑되어 있는 것으로 도시되어 있지만, 개시된 실시예들은 이에 한정되지 않는다.
일 실시예에 따라 제어 신호 매핑 테이블 400은 각 제어 신호에 대응하여 영상 출력 제어 신호가 매핑되어 있을 수 있다. 이 경우 전자 장치 100는 각 버튼에 대응하는 제어 신호를 수신하고, 수신된 제어 신호에 따라 영상 출력 제어 신호를 획득함으로써 컨텐츠의 영상 출력을 제어하도록 처리할 수 있다.
일 실시예에 따라 제어 신호 매핑 테이블 400은 각 제어 신호에 대응하여 오디오 출력 제어 신호가 매핑되어 있을 수 있다. 이 경우 전자 장치 100는 각 버튼에 대응하는 제어 신호를 수신하고, 수신된 제어 신호에 따라 오디오 출력 제어 신호를 획득함으로써 컨텐츠의 오디오 데이터의 출력을 제어하도록 처리할 수 있다.
일 실시예에 따라 제어 신호 매핑 테이블 400은 각 제어 신호에 대응하여 영상 출력 제어 신호와 오디오 출력 제어 신호가 모두 매핑되어 있을 수 있다. 이 경우, 전자 장치 100는 각 버튼에 대응하는 제어 신호를 수신하고, 수신된 제어 신호에 따라 영상 출력 제어 신호와 오디오 출력 제어 신호를 획득함으로써 컨텐츠의 영상 출력과 오디오 데이터의 출력을 모두 제어하도록 처리할 수 있다.
도 5는 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다.
도 5를 참조하면, 동작 510에서, 전자 장치 100는 서버 컴퓨터 200로부터 컨텐츠를 수신하여 표시할 수 있다. 전자 장치 100는 사용자로부터 서버 컴퓨터 200에서 제공하는 컨텐츠의 재생 요청을 수신할 수 있고, 이러한 사용자 요청에 따른 컨텐츠를 서버 컴퓨터 200에 요청할 수 있다. 이에 따라 전자 장치 100는 서버 컴퓨터 200로부터 요청된 컨텐츠를 수신하여 표시할 수 있다. 전자 장치 100가 표시하는 컨텐츠는 비디오 컨텐츠, 오디오 컨텐츠, 게임 컨텐츠 등 다양한 컨텐츠를 포함할 수 있다.
동작 520에서, 전자 장치 100는 디스플레이에 표시된 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 전자 장치 100는 다양한 사용자 입력 수단을 통하여 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 일 예에 따라 전자 장치 100는 컨텐츠를 제어하는 용도로 마련된 콘트롤러 70, 예를 들어, 게임 콘트롤러로부터 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 콘트롤러 70는 하나 이상의 버튼, 터치 패드, 조이스틱과 같은 입력 수단을 포함할 수 있다. 일 예에 따라 전자 장치 100는 전자 장치 100에 마련된 사용자 입력 수단으로부터 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 일 예에 따라 전자 장치 100는 전자 장치 100와 블루투스 통신 등에 의해 페어링된 스마트 디바이스로부터 사용자 입력에 대응하는 제어 신호를 수신할 수 있다.
동작 530에서, 전자 장치 100는 획득된 제어 신호에 기반하여 컨텐츠를 처리할 수 있도록 획득된 제어 신호를 서버 컴퓨터 200로 전송함과 함께, 획득된 제어 신호에 대응하는 컨텐츠 출력 제어 신호를 획득할 수 있다.
전자 장치 100는 사용자 입력에 대응하는 제어 신호가 서버 컴퓨터 200의 원격 처리 모듈에서 연산 처리가 수행되어 결과 화면이 제공될 수 있도록 사용자 입력에 대응하는 제어 신호를 서버 컴퓨터 200로 전송할 수 있다. 그러나 제어 신호에 대응하는 결과 화면을 서버 컴퓨터 200로부터 수신하기 까지는 시간이 걸리므로 제어 신호에 대응한 피드백이 늦어질 수 있으므로 전자 장치 100는 제어 신호를 서버 컴퓨터 200로 전송함과 동시에 제어 신호를 전자 장치 100 내부의 로컬 처리 모듈에서 신속하게 처리할 수 있다.
전자 장치 100는 획득된 제어 신호를 로컬 처리 모듈에서 처리함으로써 컨텐츠 출력 제어 신호를 획득할 수 있다. 컨텐츠 출력 제어 신호는 디스플레이에 표시되는 비디오 데이터의 출력을 제어하기 위한 영상 출력 제어 신호 또는 오디오 출력부로 출력되는 오디오 데이터의 출력을 제어하기 위한 오디오 출력 제어 신호 중 적어도 하나를 포함할 수 있다.
동작 540에서, 전자 장치 100는 획득된 컨텐츠 출력 제어 신호에 기반하여 컨텐츠를 처리하고 표시할 수 있다.
전자 장치 100는 획득된 컨텐츠 출력 제어 신호가 영상 출력 제어 신호를 포함하는 경우, 전자 장치 100는 영상 출력 제어 신호를 참조하여 디스플레이에 표시되는 비디오 데이터를 처리하고 처리된 비디오 데이터를 표시할 수 있다.
전자 장치 100는 획득된 컨텐츠 출력 제어 신호가 오디오 출력 제어 신호를 포함하는 경우, 전자 장치 100는 오디오 출력 제어 신호를 참조하여, 오디오 출력부를 통해 출력되는 오디오 데이터를 처리하고 처리된 오디오 데이터를 출력할 수 있다.
전자 장치 100는 획득된 컨텐츠 출력 제어 신호가 영상 출력 제어 신호와 오디오 출력 제어 신호를 모두 포함하는 경우, 전자 장치 100는 영상 출력 제어 신호에 따라 처리된 비디오 데이터를 디스플레이 표시하고 오디오 출력 제어 신호에 따라 처리된 오디오 데이터를 오디오 출력부를 통해 출력할 수 있다.
이와 같이 전자 장치 100의 로컬 처리 모듈을 통한 처리는 서버 컴퓨터 200의 원격 처리 모듈을 통한 처리보다 보다 빠르게 결과를 얻을 수 있으므로 전자 장치 100는 서버 컴퓨터 200로부터 원격 처리 모듈에 의한 처리 결과를 수신하기 전에 로컬 처리 모듈로부터의 처리 결과를 출력함으로써, 컨텐츠를 제어하는 사용자 입력에 대응하여 보다 신속하게 피드백을 제공할 수 있다. 따라서 사용자는 서버 컴퓨터 200로부터의 처리 결과 지연을 느낄 새 없이 피드백을 제공받음으로써 컨텐츠를 몰입감 있게 경험할 수 있다.
이하에서는 도 6 및 도 7을 참조하여 사용자 입력에 대응하는 제어 신호에 따라 전자 장치 내부에서 로컬 처리하는 방법을 설명하기 위한 참고도이다.
도 6은 일 실시예에 따라 사용자 입력에 대응하는 제어 신호를 처리한 원격 처리 결과와 로컬 처리 결과를 시간의 흐름에 따라 출력하는 예를 나타낸다.
도 6을 참조하면, t1 시점에 전자 장치 100는 서버 컴퓨터 200로부터 원격 처리 결과로 나오는 프레임을 수신하여 표시할 수 있다. 그리고 t1 시점에서 전자 장치 100는 표시되는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다. 이 경우 전자 장치 100는 사용자 입력에 대응하는 제어 신호를 서버 컴퓨터 200로 전송할 수 있다. 서버 컴퓨터 200로부터 제어 신호를 처리하여 원격 처리 결과인 제2프레임을 받는 시간은 t2 시점이 될 수 있고 따라서 전자 장치 100는 t2 시점에서야 원격 처리 결과로 수신된 제2프레임을 표시할 수 있다.
t1 시점으로부터 t2 시점까지의 시간은 상당히 길 수 있고, 따라서 전자 장치 100는 t1 시점으로부터 t2 시점까지의 중간에 제어 신호를 직접 전자 장치 100 내부에서 로컬 처리한 결과를 출력할 수 있다. 즉, 전자 장치 100는 t1-1 시점에 사용자 입력에 대응하는 제어 신호를 처리한 결과에 따라 나오는 제1-1 프레임을 출력할 수 있다. 도 6에서는 로컬 처리 결과로서 하나의 프레임 즉 제1-1 프레임 만을 예시적으로 도시하였지만, 원격 처리 결과 프레임들인 제1프레임과 제2프레임 사이에 출력되는 로컬 처리 결과에 따라 출력되는 프레임은 하나 이상의 프레임을 포함할 수 있다.
이와 같이 서버 컴퓨터 200로부터 수신되는 프레임을 출력하는 시간 구간 사이에 전자 장치 100 내부에서 로컬 처리한 결과를 출력함으로써 사용자로 하여금 신속한 피드백이 있는 것처럼 느끼게 할 수 있다. 이제 도 7을 참조하여 제1-1 프레임과 같은 로컬 처리 결과 프레임을 어떻게 생성하는지 설명한다.
도 7은 일 실시예에 따라 전자 장치 100에서 사용자 입력에 대응하는 제어 신호에 기반하여 로컬 처리 결과인 프레임을 생성하는 방법을 설명하기 위한 참고도이다.
도 7을 참조하면, 서버 컴퓨터로부터 전자 장치 100가 수신하는 프레임은 전자 장치 100의 디스플레이 화면 크기 보다 더 큰 크기를 가진다. 즉, 전자 장치 100의 디스플레이 화면 크기가 a1*b1 인 경우, 전자 장치 100는 서버 컴퓨터 200로부터 a*b 크기 (a>a1, b>b1)를 가지는 프레임을 수신할 수 있다.
전자 장치 100는 서버 컴퓨터 200로부터 자신의 디스플레이 화면 크기 보다 더 큰 크기를 가지는 프레임을 수신하고 수신된 프레임으로부터 자신의 디스플레이 화면 크기에 맞는 영역만큼 크롭하여 크롭된 영역을 디스플레이에 출력할 수 있다.
전자 장치 100는 통상적으로는 서버 컴퓨터 200로부터 수신되는 프레임에서 중앙 부분의 영역을 크롭하여 크롭된 영역을 디스플레이에 출력하다가, 사용자 입력에 대응하는 제어 신호를 수신한 경우, 프레임에서 크롭되는 영역을 이동시켜 크롭하여 출력함으로써 사용자 입력에 대응하는 피드백 효과를 제공할 수 있다. 도 7을 참조하면, t1 시점에서는 프레임의 좌측상단 시작점이 (x1,y1) 이 되는 영역에서 크롭된 제1프레임을 출력할 수 있다. 그리고 t1 시점에서 수신된 사용자 입력에 대응하는 제어 신호에 따라 피드백 효과를 주기 위해 t1-1 시점에서는 프레임의 좌측상단 시작점이 (x2,y2)가 되는 영역에서 크롭된 제1-1 프레임을 출력할 수 있다. 이와 같이 사용자 입력에 따라 디스플레이에 출력되는 영역을 이동시킴으로써 사용자로 하여금 사용자 입력에 대한 반응이 즉시 발생한 것으로 인식시킬 수 있다. 예를 들어 사용자가 좌측 방향키 버튼을 누른 경우에 이에 대응하여 크롭되는 영역을 왼쪽으로 이동시켜 크롭함으로써 사용자로 하여금 좌측 방향키 버튼에 대응하는 피드백이 나타난 것으로 경험하게 할 수 있다. 예를 들어 사용자가 우측 방향키 버튼을 누른 경우 이에 대응하여 크롭되는 영역으로 오른쪽으로 이동시켜 크롭함으로써 사용자로 하여금 우측 방향키 버튼에 대응하는 피드백이 나타난 것으로 경험하게 할 수 있다.
도 8은 일 실시예에 따라 전자 장치 100에서 사용자 입력에 대응하는 제어 신호에 기반하여 로컬 처리 결과인 프레임을 생성하는 방법의 다른 예를 설명하기 위한 참고도이다.
도 8을 참조하면, 서버 컴퓨터로부터 전자 장치 100가 수신하는 프레임은 전자 장치 100의 디스플레이 화면 크기 보다 더 큰 크기를 가진다. 즉, 전자 장치 100의 디스플레이 화면 크기가 a1*b1 인 경우, 전자 장치 100는 서버 컴퓨터 200로부터 a*b 크기 (a>a1, b>b1)를 가지는 프레임을 수신할 수 있다.
전자 장치 100는 서버 컴퓨터 200로부터 자신의 디스플레이 화면 크기 보다 더 큰 크기를 가지는 프레임을 수신하고 수신된 프레임으로부터 자신의 디스플레이 화면 크기 보다 더 축소된 영역 또는 더 확대된 영역을 크롭하고, 크롭된 영역의 영상을 다시 자신의 디스플레이 화면 크기에 맞도록 확대하거나 축소하여 디스플레이에 출력할 수 있다.
전자 장치 100는 통상적으로는 서버 컴퓨터 200로부터 수신되는 프레임에서 중앙 부분의 미리 정해진 크기의 영역을 크롭하여 크롭된 영역을 디스플레이에 출력하다가, 사용자 입력에 대응하는 제어 신호를 수신한 경우, 프레임에서 크롭되는 영역의 크기를 확대하거나 축소시켜 크롭하여 출력함으로써 사용자 입력에 대응하는 피드백 효과를 제공할 수 있다. 도 8을 참조하면, t1 시점에서는 프레임의 좌측상단 시작점이 (x1,y1) 이 되는 미리 정해진 크기 (a1*b1)의 영역에서 크롭된 제1프레임을 출력할 수 있다. 그리고 t1 시점에서 수신된 사용자 입력에 대응하는 제어 신호에 따라 피드백 효과를 주기 위해 t1-1 시점에서는 프레임의 좌측상단 시작점이 (x2,y2)가 되는 축소된 크기 (a2*b2)로 크롭된 영역에서 영상을 추출할 수 있다. 그리고 전자 장치 100는 (a2*b2) 크기의 영상을 (a1*b1) 크기의 디스플레이 화면에 맞추기 위해 확대하여 디스플레이로 출력할 수 있다. 이와 같이 전자 장치 100는 프레임에서 축소된 크기의 영역에서 추출된 영상을 다시 확대함으로써 결국 디스플레이에 표시되는 영상이 이전 영상 즉, t1 시점에 표시된 영상과 비교하여 t1-1 시점에서는 확대된 영상을 표시할 수 있다. 예를 들어 사용자가 전진 키 버튼을 누른 경우에 이에 대응하여 크롭되는 영역을 축소하고 디스플레이 화면에 맞추어 확대하여 표시함으로써 사용자로 하여금 전진 키 버튼에 대응하는 피드백이 나타난 것으로 경험하게 할 수 있다.
도 9는 일 실시예에 따라 전자 장치 100에서 사용자 입력에 대응하는 제어 신호에 기반하여 로컬 처리 결과인 프레임을 생성하는 방법의 또 다른 예를 설명하기 위한 참고도이다.
도 9를 참조하면, 서버 컴퓨터로부터 전자 장치 100가 수신하는 프레임은 전자 장치 100의 디스플레이 화면 크기 보다 더 큰 크기를 가진다. 즉, 전자 장치 100의 디스플레이 화면 크기가 a1*b1 인 경우, 전자 장치 100는 서버 컴퓨터 200로부터 a*b 크기 (a>a1, b>b1)를 가지는 프레임을 수신할 수 있다.
전자 장치 100는 서버 컴퓨터 200로부터 자신의 디스플레이 화면 크기 보다 더 큰 크기를 가지는 프레임을 수신하고 수신된 프레임으로부터 자신의 디스플레이 화면 크기 보다 더 확대된 영역을 크롭하고, 크롭된 영역의 영상을 다시 자신의 디스플레이 화면 크기에 맞도록 축소하여 디스플레이에 출력할 수 있다.
전자 장치 100는 통상적으로는 서버 컴퓨터 200로부터 수신되는 프레임에서 중앙 부분의 미리 정해진 크기의 영역을 크롭하여 크롭된 영역을 디스플레이에 출력하다가, 사용자 입력에 대응하는 제어 신호를 수신한 경우, 프레임에서 크롭되는 영역의 크기를 확대하여 크롭하여 출력함으로써 사용자 입력에 대응하는 피드백 효과를 제공할 수 있다. 도 9를 참조하면, t1 시점에서는 프레임의 좌측상단 시작점이 (x1,y1) 이 되는 미리 정해진 크기 (a1*b1)의 영역에서 크롭된 제1프레임을 출력할 수 있다. 그리고 t1 시점에서 수신된 사용자 입력에 대응하는 제어 신호에 따라 피드백 효과를 주기 위해 t1-1 시점에서는 프레임의 좌측상단 시작점이 (x2,y2)가 되는 확대된 크기 (a3*b3)로 크롭된 영역에서 영상을 추출할 수 있다. 그리고 전자 장치 100는 (a3*b3) 크기의 영상을 (a1*b1) 크기의 디스플레이 화면에 맞추기 위해 축소하여 디스플레이로 출력할 수 있다. 이와 같이 전자 장치 100는 프레임에서 확대된 크기의 영역에서 추출된 영상을 다시 축소함으로써 결국 디스플레이에 표시되는 영상이 이전 영상 즉, t1 시점에 표시된 영상과 비교하여 t1-1 시점에서는 축소된 영상을 표시할 수 있다. 예를 들어 사용자가 후진 키 버튼을 누른 경우에 이에 대응하여 크롭되는 영역을 확대하고 디스플레이 화면에 맞추어 축소하여 표시함으로써 사용자로 하여금 후진 키 버튼에 대응하는 피드백이 나타난 것으로 경험하게 할 수 있다.
이하에서는 도 10 내지 도 16을 참조하여 사용자 입력에 대응하는 제어 신호에 따라 전자 장치 100의 내부에서 영상 출력을 제어하는 예를 설명한다.
도 10은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 영상 출력을 제어하는 과정의 일 예를 나타내는 흐름도이다.
도 10을 참조하면, 동작 1005에서, 전자 장치 100는 컨텐츠의 재생을 요청하는 사용자 입력을 수신할 수 있다.
동작 1010에서, 전자 장치 100는 사용자의 컨텐츠 요청을 서버 컴퓨터 200로 전송할 수 있다.
동작 1015에서, 서버 컴퓨터 200는 요청된 컨텐츠를 처리하고, 동작 1020에서 서버 컴퓨터 200는 처리된 컨텐츠를 스트리밍을 이용하여 전자 장치 100로 전송할 수 있다.
동작 1025에서, 전자 장치 100는 서버 컴퓨터 200로부터 수신된 컨텐츠를 표시할 수 있다.
동자 1030에서, 전자 장치 100는 디스플레이에 표시된 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다.
동작 1035에서, 전자 장치 100는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호의 서버에서의 처리를 위해 제어 신호를 서버 컴퓨터 200로 전송할 수 있다.
동작 1040에서, 전자 장치 100는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호의 로컬 처리를 위해 이러한 제어 신호에 대응하는 영상 출력 제어 신호를 획득할 수 있다. 일 예에 따라 전자 장치 100는 사용자 입력에 대응하는 제어 신호와 영상 출력 제어 신호가 매핑된 매핑 테이블을 참조하여 영상 출력 제어 신호를 획득할 수 있다.
동작 1045에서, 전자 장치 100는 획득된 영상 출력 제어 신호에 기반하여 출력할 영상 영역을 조정하고 조정된 영상 영역에 따라 영상을 표시할 수 있다.
일 실시예에 따라 전자 장치 100는 획득된 영상 출력 제어 신호에 기반하여 출력할 영상 영역을 이동시키고 이동된 영상 영역에서 영상을 획득하여 표시할 수 있다. 예를 들어 전자 장치 100는 획득된 영상 출력 제어 신호에 기반하여 출력할 영상을 크롭할 영역을 왼쪽, 오른쪽, 위쪽, 또는 아래쪽으로 이동시키고 이동된 영역에서 영상을 크롭하여 표시할 수 있다.
일 실시예에 따라 전자 장치 100는 획득된 영상 출력 제어 신호에 기반하여 출력할 영상 영역 보다 더 큰 영역을 크롭하거나 또는 출력할 영상 영역보다 더 작은 영역을 크롭하여 크롭된 영역의 영상을 표시할 수 있다. 예를 들어, 영상 출력 제어 신호에 기반하여 영상을 확대하는 경우에 전자 장치 100는 디스플레이 화면 크기보다 더 작은 영역을 크롭하여 크롭된 영상의 영역을 디스플레이 화면 크기만큼 확대함으로써 영상의 확대 효과를 얻을 수 있다. 예를 들어, 영상 출력 제어 신호에 기반하여 영상을 축소하는 경우에 전자 장치 100는 화면 크기보다 더 큰 영역을 크롭하여 크롭된 영상의 영역을 디스플레이 화면 크기만큼 축소함으로써 영상의 축소 효과를 얻을 수 있다.
동작 1050에서, 서버 컴퓨터 200는 전자 장치 100로부터 제어 신호에 따라 컨텐츠를 처리하는 원격 처리를 수행할 수 있다.
동작 1055에서, 서버 컴퓨터 200는 제어 신호에 따라 처리된 컨텐츠의 원격 처리 결과를 전자 장치 100로 전송할 수 있다.
도 11은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 영상 출력을 제어하는 로컬 처리 모듈의 일 예를 나타낸다.
도 11을 참조하면, 사용자 입력에 대응하는 제어 신호에 따라 영상 출력을 제어하는 로컬 처리 모듈 161은 비디오 처리부 160에 포함될 수 있다. 로컬 처리 모듈 161이 비디오 처리부 160에 포함되는 것은 일 예일 뿐이고, 로컬 처리 모듈 161은 비디오 처리부 160의 외부에 마련될 수도 있다.
일 실시예에 따라 비디오 처리부 160는 비디오 디코더 1110 및 로컬 처리 모듈 161을 포함할 수 있다.
비디오 디코더 1110는 서버 컴퓨터 200로부터 수신된 컨텐츠 프레임을 전달받아 디코딩하고 디코딩된 프레임을 로컬 처리 모듈 161로 전달할 수 있다. 비디오 디코더 1110가 서버 컴퓨터 200로부터 수신하여 디코딩한 프레임은 a*b 크기를 가질 수 있다.
전자 장치 100는 디스플레이 120에 표시된 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 콘트롤러 70로부터 수신하면 수신된 제어 신호를 로컬 처리 모듈 161로 전달되도록 제어할 수 있다. 로컬 처리 모듈 161은 제어 신호 해석 모듈 1120, 영상 출력 제어 신호 데이터베이스 1130, 영상 출력 제어 모듈 1140를 포함할 수 있다.
제어 신호 해석 모듈 1120는 콘트롤러 70로부터의 사용자 입력에 대응하는 제어 신호를 수신하여 수신된 제어 신호를 해석할 수 있다. 제어 신호 해석 모듈 1120은 수신된 제어 신호를 해석하여, 수신된 제어 신호에 대응하는 영상 출력 제어 신호를 영상 출력 제어 신호 데이터베이스 1130를 참조하여 획득할 수 있다.
영상 출력 제어 신호 데이터베이스 1130는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호와 이러한 제어 신호에 대응하는 영상 출력 제어 신호를 매핑한 매핑 테이블 1131을 포함할 수 있다.
도 11을 참조하면, 매핑 테이블 1131은 사용자 입력에 대응하는 제어 신호와 영상 출력 제어 신호의 쌍을 포함할 수 있다. 구체적으로 매핑 테이블 1131은, 우측 방향키 입력에 대응하는 제어 신호에 대한 영상 출력 제어 신호로서 “slide to right”가 매핑되어 있고, 좌측 방향키 입력에 대응하는 제어 신호에 대한 영상 출력 제어 신호로서 “slide to left”가 매핑되어 있고, 하측 방향키 입력에 대응하는 제어 신호에 대한 영상 출력 제어 신호로서 “slide down”가 매핑되어 있고, 상측 방향키 입력에 대응하는 제어 신호에 대한 영상 출력 제어 신호로서 “slide up”가 매핑되어 있고, 전진 키 입력에 대응하는 제어 신호에 대한 영상 출력 제어 신호서 “클리핑 영역 축소”가 매핑되어 있고, 후진 또는 발사 키 입력에 대응하는 제어 신호로서 “클리핑 영역 확대”가 매핑되어 있다.
제어 신호 해석 모듈 1120는 수신된 제어 신호가 우측 방향키 입력에 대응하는 제어 신호 인 경우, 영상 출력 제어 신호 데이터베이스 1130을 참조하여, 우측 방향키 입력에 대응하는 제어 신호에 매핑된 영상 출력 제어 신호로서 “slide to right”를 획득하고, 영상 출력 제어 신호 “slide to right”를 영상 출력 제어 모듈 161로 전달할 수 있다.
영상 출력 제어 모듈 1140는 비디오 디코더 1110으로부터 수신된 프레임에 대해서 제어 신호 해석 모듈 1120로부터 출력된 영상 출력 제어 신호에 따라 프레임 처리를 수행하고, 처리된 프레임을 디스플레이 120로 출력할 수 있다. 영상 출력 제어 모듈 1140는 비디오 디코더 1110로부터 a*b 크기의 프레임을 수신하고, 수신된 프레임에 대해서 영상 출력 제어 신호에 기반하여 영역을 크롭하고 크롭된 영역을 디스플레이 120로 전달할 수 있다. 예를 들어 영상 출력 제어 모듈 1140이 영상 출력 제어 신호 “slide to right”를 수신한 경우, 영상 출력 제어 모듈 1140은 a*b 크기의 프레임에서 디스플레이 화면 사이즈인 a1*b1 크기의 영역을 크롭하는데 이때 크롭하는 영역을 오른쪽으로 이동시켜서 이동된 영역에서 영상을 크롭할 수 있다. 이와 같이 크롭하는 영역을 오른쪽으로 이동시킴으로써 사용자로 하여금 오른쪽 방향키 입력에 대응하는 피드백을 신속하게 제공할 수 있다.
디스플레이 120는 영상 출력 제어 모듈 1140로부터 크롭된 영역의 영상 즉, 디스플레이 화면 사이즈 a1*b1 크기의 영상을 수신하고 이를 화면에 표시할 수 있다.
도 12는 일 실시예에 따라 서버 컴퓨터 200로부터 수신되는 프레임과 전자 장치 100에서 디스플레이에 표시되는 프레임의 크기를 설명하기 위한 참고도이다.
도 12를 참조하면, 전자 장치 100는 서버 컴퓨터 200로부터 전자 장치 100의 디스플레이 화면 크기 (a1*b1) 보다 더 큰 크기 (a*b) 를 가지는 오리지널 프레임을 수신할 수 있다. 그러면 전자 장치 100는 자신의 디스플레이 화면 크기보다 더 큰 크기의 오리지널 프레임에서 일부 영역을 크롭하여 크롭된 영역을 디스플레이 화면에 출력할 영역으로 결정하고 결정된 영역에 대응하는 제1프레임 (a1*b1 크기)을 출력할 수 있다.
전자 장치 100는 서버 컴퓨터 200로부터 수신된 오리지널 프레임에서 통상적으로는 가운데 영역을 크롭하여 디스플레이에 출력하다가 컨텐츠를 제어하는 사용자 입력에 대응하여 피드백 효과를 신속하게 표시하고 싶을 때 전자 장치 100는 프레임에서 크롭되는 영역을 원하는 피드백 효과에 적절하게 이동시켜 선택하고 선택된 영역의 영상의 디스플레이에 출력함으로써 사용자 입력에 대응하는 즉각적인 피드백 효과를 즉각적으로 제공할 수 있다. 이와 같이 피드백 효과를 제공하기 위해서는 크롭되는 영역을 이동시키는 것이 바람직하고 또한 크롭되는 영역을 이동시키기 위해서는 이동될 공간이 필요하므로 전자 장치 100는 서버 컴퓨터 200와의 약속에 의해 디스플레이 화면 보다 더 큰 사이즈의 오리지널 프레임을 수신할 수 있다.
도 13은 일 실시예에 따라 우측 방향키 입력에 따른 영상 출력 제어를 설명하기 위한 참고도이다.
도 13을 참조하면, 전자 장치 100는 서버 컴퓨터 200로부터 전자 장치 100의 디스플레이 화면 크기 (a1*b1) 보다 더 큰 크기 (a*b) 를 가지는 오리지널 프레임을 수신할 수 있다. 그러면 전자 장치 100는 자신의 디스플레이 화면 크기보다 더 큰 크기의 오리지널 프레임에서 일부 영역 1300을 크롭하여 크롭된 영역 1300을 디스플레이 화면에 출력할 영역으로 결정하고 결정된 영역에 대응하는 제1프레임 (a1*b1 크기)을 t1 시점에서 출력할 수 있다.
그리고 t1 시점에서 전자 장치 100가 콘트롤러 로부터 우측 방향키에 대응하는 제어 신호를 수신한 경우에, 전자 장치 100는 영상 출력 제어 신호 데이터 베이스 1130의 매핑 테이블 1131로부터 우측 방향키 입력에 대응하는 영상 출력 제어 신호로서 “slide to right”를 획득할 수 있다. 전자 장치 100는 영상 출력 제어 신호인 “slide to right”에 따라서 오리지널 프레임에서 크롭할 영역을 기존의 영역 1300 보다 오른쪽으로 거리 d 만큼 이동시켜, 이동된 영역 1310를 크롭할 영역으로 결정할 수 있다. 그리고 전자 장치 100는 이동된 영역 1310을 크롭하고, 크롭된 영역의 영상에 대응하는 제1-1 프레임을 출력할 수 있다.
이와 같이 전자 장치 100는 우측 방향키 입력을 서버 컴퓨터 200로 전송하여 서버 컴퓨터 200로부터 우측 방향키 입력에 대한 원격 처리 결과를 수신하기 전에라도, 전자 장치 100 내부에서 즉각적인 우측 방향키 입력에 대응하여 처리한 결과를 사용자에게 제공함으로써 사용자에게 빠른 피드백을 제공할 수 있다.
도 14는 일 실시예에 따라 전진 방향키 입력에 따른 영상 출력 제어를 설명하기 위한 참고도이다.
도 14를 참조하면, 전자 장치 100는 서버 컴퓨터 200로부터 전자 장치 100의 디스플레이 화면 크기 (a1*b1) 보다 더 큰 크기 (a*b) 를 가지는 오리지널 프레임을 수신할 수 있다. 그러면 전자 장치 100는 자신의 디스플레이 화면 크기보다 더 큰 크기의 오리지널 프레임에서 일부 영역 1400을 크롭하여 크롭된 영역 1400을 디스플레이 화면에 출력할 영역으로 결정하고 결정된 영역에 대응하는 제1프레임 (a1*b1 크기)을 t1 시점에서 출력할 수 있다.
그리고 t1 시점에서 전자 장치 100가 콘트롤러 로부터 전진 방향키에 대응하는 제어 신호를 수신한 경우에, 전자 장치 100는 영상 출력 제어 신호 데이터 베이스 1130의 매핑 테이블 1131로부터 전진 방향키 입력에 대응하는 영상 출력 제어 신호로서 “클리핑 영역 축소”를 획득할 수 있다. 전자 장치 100는 영상 출력 제어 신호인 “클리핑 영역 축소”에 따라서 오리지널 프레임에서 크롭할 영역을 기존의 크롭 영역 1400 보다 축소 시켜서 축소된 영역 1410을 크롭할 영역으로 결정할 수 있다. 예를 들어, 축소된 영역 1410은 기존의 크롭 영역 1400에서 상, 하, 좌, 우 에지에서 d1 만큼 축소된 영역으로 결정할 수 있다. 따라서 축소하여 크롭되는 영역은 (a1-2d1*b1-2d1)의 크기를 가질 수 있다. 전자 장치 100는 축소하여 크롭된 영역을 디스플레이 화면의 크기인 (a1*b1) 로 확대한 후 확대된 영상에 대응하는 제1-1 프레임을 출력할 수 있다.
이와 같이 전자 장치 100는 전진 방향키 입력을 서버 컴퓨터 200로 전송하여 서버 컴퓨터 200로부터 전진 방향키 입력에 대한 원격 처리 결과를 수신하기 전에라도, 전자 장치 100 내부에서 즉각적인 전진 방향키 입력에 대응하여 처리한 결과, 즉, 제1프레임과 비교하여 확대된 영상을 가지는 제1-1 프레임을 사용자에게 제공함으로써 사용자로 하여금 전진 방향키 입력에 따라 전진 명령이 처리된 것과 같은 피드백을 제공할 수 있다.
도 15는 일 실시예에 따라 후진 방향키 입력에 따른 영상 출력 제어를 설명하기 위한 참고도이다.
도 15를 참조하면, 전자 장치 100는 서버 컴퓨터 200로부터 전자 장치 100의 디스플레이 화면 크기 (a1*b1) 보다 더 큰 크기 (a*b) 를 가지는 오리지널 프레임을 수신할 수 있다. 그러면 전자 장치 100는 자신의 디스플레이 화면 크기보다 더 큰 크기의 오리지널 프레임에서 일부 영역 1500을 크롭하여 크롭된 영역 1500을 디스플레이 화면에 출력할 영역으로 결정하고 결정된 영역에 대응하는 제1프레임 (a1*b1 크기)을 t1 시점에서 출력할 수 있다.
그리고 t1 시점에서 전자 장치 100가 콘트롤러 로부터 후진 방향키에 대응하는 제어 신호를 수신한 경우에, 전자 장치 100는 영상 출력 제어 신호 데이터 베이스 1130의 매핑 테이블 1131로부터 후진진 방향키 입력에 대응하는 영상 출력 제어 신호로서 “클리핑 영역 확대”를 획득할 수 있다. 전자 장치 100는 영상 출력 제어 신호인 “클리핑 영역 확대”에 따라서 오리지널 프레임에서 크롭할 영역을 기존의 크롭 영역 1500 보다 확대 시켜서 확대된 영역 1510을 크롭할 영역으로 결정할 수 있다. 예를 들어, 축소된 영역 1510은 기존의 크롭 영역 1300에서 상, 하, 좌, 우 에지에서 d1 만큼 확대된 영역으로 결정할 수 있다. 따라서 확대하여 크롭되는 영역은 (a1+2d1*b1+2d1)의 크기를 가질 수 있다. 전자 장치 100는 확대하여 크롭된 영역을 디스플레이 화면의 크기인 (a1*b1) 로 축소한 후 축소된 영상에 대응하는 제1-1 프레임을 출력할 수 있다.
이와 같이 전자 장치 100는 후진 방향키 입력을 서버 컴퓨터 200로 전송하여 서버 컴퓨터 200로부터 후진 방향키 입력에 대한 원격 처리 결과를 수신하기 전 에라도, 전자 장치 100 내부에서 즉각적인 후진 방향키 입력에 대응하여 처리한 결과, 즉, 제1프레임과 비교하여 축소된 영상을 가지는 제1-1 프레임을 사용자에게 제공함으로써 사용자로 하여금 후진 방향키 입력에 따라 후진 명령이 처리된 것과 같은 피드백을 제공할 수 있다.
도 16은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 영상 출력을 제어하는 과정의 일 예를 나타내는 흐름도이다.
도 16을 참조하면, 동작 1605에서, 전자 장치 100는 컨텐츠의 재생을 요청하는 사용자 입력을 수신할 수 있다.
동작 1610에서, 전자 장치 100는 사용자의 컨텐츠 요청을 서버 컴퓨터 200로 전송할 수 있다.
동작 1615에서, 서버 컴퓨터 200는 요청된 컨텐츠를 처리하고, 동작 1620에서 서버 컴퓨터 200는 처리된 컨텐츠를 스트리밍을 이용하여 전자 장치 100로 전송할 수 있다.
동작 1625에서, 전자 장치 100는 서버 컴퓨터 200로부터 수신된 컨텐츠를 표시할 수 있다.
동자 1630에서, 전자 장치 100는 디스플레이에 표시된 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 수신할 수 있다.
동작 1635에서, 전자 장치 100는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호의 서버에서의 처리를 위해 제어 신호를 서버 컴퓨터 200로 전송할 수 있다.
동작 1640에서, 전자 장치 100는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호의 로컬 처리를 위해 이러한 제어 신호에 대응하는 오디오 출력 제어 신호를 획득할 수 있다. 일 예에 따라 전자 장치 100는 사용자 입력에 대응하는 제어 신호와 오디오 출력 제어 신호가 매핑된 매핑 테이블을 참조하여 오디오 출력 제어 신호를 획득할 수 있다.
동작 1645에서, 전자 장치 100는 획득된 오디오 출력 제어 신호에 기반하여 출력할 오디오 데이터를 조정하고 조정된 오디오 데이터를 출력할 수 있다. 오디오 출력 제어 신호는 서버 컴퓨터 200로부터 수신된 오디오 데이터의 파라미터를 조정하도록 제어하는 파라미터 제어 신호 또는 서버 컴퓨터 200로부터 수신된 오디오 데이터와 함께 믹싱되기 위한 사운드 이펙트를 제어하기 위한 사운드 이펙트 제어 신호를 포함할 수 있다.
일 실시예에 따라 전자 장치 100는 획득된 오디오 출력 제어 신호가 파라미터 제어 신호를 포함하는 경우, 전자 장치 100는 파라미터 제어 신호에 따라 서버 컴퓨터 200로부터 수신된 오디오 데이터의 파라미터를 조정하여 오디오 데이터를 처리하고 처리된 오디오 데이터를 출력할 수 있다.
일 실시예에 따라 전자 장치 100는 획득된 오디오 출력 제어 신호가 사운드 이펙트 제어 신호를 포함하는 경우, 전자 장치 100는 사운드 이펙트 제어 신호에 따라 사운드 이펙트를 생성하고, 생성된 사운드 이펙트와 서버 컴퓨터 200로부터 수신된 오디오 데이터를 믹싱하여 믹싱된 오디오 데이터를 출력할 수 있다.
동작 1650에서, 서버 컴퓨터 200는 전자 장치 100로부터 제어 신호에 따라 컨텐츠를 처리하는 원격 처리를 수행할 수 있다.
동작 1655에서, 서버 컴퓨터 200는 제어 신호에 따라 처리된 컨텐츠의 원격 처리 결과를 전자 장치 100로 전송할 수 있다.
도 17은 일 실시예에 따라 전자 장치에서 사용자 입력에 대응하는 제어 신호에 따라 오디오 출력을 제어하는 로컬 처리 모듈의 일 예를 나타낸다.
도 17을 참조하면, 사용자 입력에 대응하는 제어 신호에 따라 오디오 출력을 제어하는 로컬 처리 모듈 1700은 오디오 처리부 170에 포함될 수 있다. 로컬 처리 모듈 1700이 오디오 처리부 170에 포함되는 것은 일 예일 뿐이고, 로컬 처리 모듈 1700은 오디오 처리부 170의 외부에 마련될 수도 있다.
일 실시예에 따라 오디오 처리부 170는 오디오 디코더 171 및 로컬 처리 모듈 1700을 포함할 수 있다.
오디오 디코더 171는 서버 컴퓨터 200로부터 수신된 오디오 데이터를 전달받아 디코딩하고 디코딩된 프레임을 로컬 처리 모듈 1700로 전달할 수 있다.
전자 장치 100는 디스플레이 120에 표시된 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 콘트롤러 70로부터 수신하면 수신된 제어 신호를 로컬 처리 모듈 1700로 전달되도록 제어할 수 있다. 로컬 처리 모듈 1700은 제어 신호 해석 모듈 1710, 오디오 출력 제어 신호 데이터베이스 1720, 영상 출력 제어 모듈 1730를 포함할 수 있다.
제어 신호 해석 모듈 1710는 콘트롤러 70로부터의 사용자 입력에 대응하는 제어 신호를 수신하여 수신된 제어 신호를 해석할 수 있다. 제어 신호 해석 모듈 1710은 수신된 제어 신호를 해석하여, 수신된 제어 신호에 대응하는 오디오 출력 제어 신호를 오디오 출력 제어 신호 데이터베이스 1720를 참조하여 획득할 수 있다.
오디오 출력 제어 신호 데이터베이스 1720는 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호와 이러한 제어 신호에 대응하는 오디오 출력 제어 신호를 매핑한 매핑 테이블 1721을 포함할 수 있다.
도 17을 참조하면, 매핑 테이블 1721은 사용자 입력에 대응하는 제어 신호와 오디오 출력 제어 신호의 쌍을 포함할 수 있다. 구체적으로 매핑 테이블 1721은, 우측 방향키 입력에 대응하는 제어 신호에 대한 오디오 출력 제어 신호로서 “제1이펙트 사운드 제어 신호/제1오디오 파라미터 제어 신호”가 매핑되어 있고, 좌측 방향키 입력에 대응하는 제어 신호에 대한 오디오 출력 제어 신호로서 “제2이펙트 사운드 제어 신호/제2오디오 파라미터 제어 신호”가 매핑되어 있고, 하측 방향키 입력에 대응하는 제어 신호에 대한 오디오 출력 제어 신호로서 “제3이펙트 사운드 제어 신호/제3오디오 파라미터 제어 신호”가 매핑되어 있고, 상측 방향키 입력에 대응하는 제어 신호에 대한 오디오 출력 제어 신호로서 “제4이펙트 사운드 제어 신호/제4오디오 파라미터 제어 신호”가 매핑되어 있고, 전진 키 입력에 대응하는 제어 신호에 대한 영상 출력 제어 신호서 “제5이펙트 사운드 제어 신호/제5오디오 파라미터 제어 신호”가 매핑되어 있고, 후진 또는 발사 키 입력에 대응하는 제어 신호로서 “제6이펙트 사운드 제어 신호/제6오디오 파라미터 제어 신호”가 매핑되어 있다. 오디오 출력 제어 신호는 제1이펙트 사운드 제어 신호 또는 제1오디오 파라미터 제어 신호 중 적어도 하나를 포함할 수 있다.
제어 신호 해석 모듈 1710는 수신된 제어 신호가 우측 방향키 입력에 대응하는 제어 신호 인 경우, 오디오 출력 제어 신호 데이터베이스 1721을 참조하여, 우측 방향키 입력에 대응하는 제어 신호에 매핑된 오디오 출력 제어 신호로서 “제1이펙트 사운드 제어 신호/제1오디오 파라미터 제어 신호”를 획득하고, 영상 출력 제어 신호 “제1이펙트 사운드 제어 신호/제1오디오 파라미터 제어 신호”를 영상 출력 제어 모듈 1730로 전달할 수 있다.
영상 출력 제어 모듈 1730는 오디오 디코더 171로부터 수신된 프레임에 대해서 제어 신호 해석 모듈 1710로부터 출력된 오디오 출력 제어 신호에 따라 프레임 처리를 수행하고, 처리된 프레임을 오디오 출력부 180로 출력할 수 있다. 오디오 출력 제어 모듈 1730는 우측 방향키 입력에 대응하는 제어 신호에 매핑된 오디오 출력 제어 신호로서 “제1이펙트 사운드 제어 신호/제1오디오 파라미터 제어 신호”를 수신하고, 오디오 출력 제어 신호에 제1이펙트 사운드 제어 신호가 포함된 경우에, 제1이펙트 사운드 제어 신호에 따라 이펙트 사운드를 생성하고, 생성된 이펙트 사운드와 오디오 디코더 171로부터 수신된 오디오 데이터를 믹싱하여 믹싱된 오디오 데이터를 오디오 출력부 180로 출력할 수 있다. 오디오 출력 제어 모듈 1730은 오디오 출력 제어 신호에 제1오디오 파라미터 제어 신호가 포함된 경우, 오디오 디코더 171로부터 수신된 오디오 데이터에 대해서 제1오디오 파라미터 제어 신호에 따라 파라미터를 조정하고 파라미터가 조정된 오디오 데이터를 오디오 출력부 180로 출력할 수 있다. 오디오 파라미터는 예를 들어, 볼륨 등을 포함할 수 있다.
오디오 출력부 180는 오디오 출력 제어 모듈 1730로부터 출력된 오디오 데이터를 수신하고 이를 출력할 수 있다.
일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
개시된 실시예들은 컴퓨터로 읽을 수 있는 저장 매체(computer-readable storage media)에 저장된 명령어를 포함하는 S/W 프로그램으로 구현될 수 있다.
컴퓨터는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 개시된 실시예에 따른 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치를 포함할 수 있다.
컴퓨터로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서,'비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 개시된 실시예들에 따른 제어 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 디바이스의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.
컴퓨터 프로그램 제품은, 서버 및 디바이스로 구성되는 시스템에서, 서버의 저장매체 또는 디바이스의 저장매체를 포함할 수 있다. 또는, 서버 또는 디바이스와 통신 연결되는 제 3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제 3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 디바이스 또는 제 3 장치로 전송되거나, 제 3 장치로부터 디바이스로 전송되는 S/W 프로그램 자체를 포함할 수 있다.
이 경우, 서버, 디바이스 및 제 3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 디바이스 및 제 3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 디바이스가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.
또 다른 예로, 제 3 장치가 컴퓨터 프로그램 제품을 실행하여, 제 3 장치와 통신 연결된 디바이스가 개시된 실시예에 따른 방법을 수행하도록 제어할 수 있다. 제 3 장치가 컴퓨터 프로그램 제품을 실행하는 경우, 제 3 장치는 서버로부터 컴퓨터 프로그램 제품을 다운로드하고, 다운로드 된 컴퓨터 프로그램 제품을 실행할 수 있다. 또는, 제 3 장치는 프리로드 된 상태로 제공된 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수도 있다.
또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.
전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 개시의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.

Claims (19)

  1. 전자 장치에 있어서,
    통신 인터페이스,
    하나 이상의 인스트럭션을 저장하는 메모리, 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    서버로부터 상기 통신 인터페이스를 통해 수신된 컨텐츠를 표시하도록 디스플레이를 제어하고,
    상기 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하고,
    상기 획득된 제어 신호에 기반하여 상기 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 상기 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하고,
    상기 획득된 영상 출력 제어 신호에 기반하여 상기 디스플레이에 표시되는 컨텐츠를 처리하고,
    상기 처리된 컨텐츠를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
  2. 제1항에 있어서,
    상기 서버로부터 수신되는 컨텐츠는 상기 디스플레이 크기보다 더 큰 크기를 가지는 오리지널 영상 데이터를 포함하고,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 영상 출력 제어 신호에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 식별하고, 상기 식별된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 제어 신호가 좌, 우, 상, 하 방향키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이에 출력될 영역을 좌, 우, 상, 하 방향 중 하나로 이동시키고, 이동된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
  4. 제2항에 있어서,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 제어 신호가 전진 키 또는 후진 키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이에 출력될 영역을 축소 또는 확대 처리하고, 상기 축소 또는 확대 처리된 영역으로부터 추출된 영상 데이터를 표시하도록 상기 디스플레이를 제어하는, 전자 장치.
  5. 제1항에 있어서,
    하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 영상 출력 제어 신호를 저장하는 데이터베이스를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 영상 출력 제어 신호를 획득하는, 전자 장치.
  6. 제1항에 있어서,
    상기 서버로부터 수신되는 컨텐츠는 오디오 데이터를 더 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 획득된 제어 신호에 대응하는 오디오 출력 제어 신호를 획득하고,
    상기 획득된 제어 신호에 기반하여 상기 서버로부터 수신되는 오디오 데이터를 처리하고,
    상기 처리된 오디오 데이터를 출력하도록 오디오 출력부를 제어하는, 전자 장치.
  7. 제6항에 있어서,
    상기 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 오디오 출력 제어 신호를 저장하는 데이터베이스를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 오디오 출력 제어 신호를 획득하는, 전자 장치.
  8. 제6항에 있어서,
    상기 오디오 출력 제어 신호는 상기 이펙트 사운드 제어 신호를 포함하고,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 획득된 제어 신호에 대응하는 상기 이펙트 사운드 제어 신호를 획득하고,
    상기 획득된 이펙트 사운드 제어 신호에 기반하여 이펙트 사운드를 처리하고,
    상기 서버로부터 수신된 오디오 데이터와 상기 처리된 이펙트 사운드를 믹싱하여 출력하도록 상기 오디오 출력부를 제어하는, 전자 장치.
  9. 제6항에 있어서,
    상기 오디오 출력 제어 신호는 오디오 파라미터 제어 신호를 포함하고,
    상기 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 획득된 제어 신호에 대응하는 상기 오디오 파라미터 제어 신호를 획득하고,
    상기 획득된 오디오 파라미터 제어 신호에 따라 상기 서버로부터 수신된 오디오 데이터를 조정하고, 조정된 오디오 데이터를 출력하도록 상기 오디오 출력부를 제어하는, 전자 장치.
  10. 전자 장치의 동작 방법에 있어서,
    서버로부터 수신된 컨텐츠를 디스플레이에 표시하는 동작,
    상기 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하는 동작,
    상기 획득된 제어 신호에 기반하여 상기 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 상기 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하는 동작,
    상기 획득된 영상 출력 제어 신호에 기반하여 상기 디스플레이에 표시되는 컨텐츠를 처리하는 동작, 및
    상기 처리된 컨텐츠를 표시하는 동작을 포함하는, 전자 장치의 동작 방법.
  11. 제10항에 있어서,
    상기 서버로부터 수신되는 컨텐츠는 상기 디스플레이 크기보다 더 큰 크기를 가지는 오리지널 영상 데이터를 포함하고,
    상기 방법은,
    상기 영상 출력 제어 신호에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이 화면에 출력될 영역을 식별하고, 상기 식별된 영역으로부터 추출된 영상 데이터를 표시하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  12. 제11항에 있어서,
    상기 제어 신호가 좌, 우, 상, 하 방향키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이에 출력될 영역을 좌, 우, 상, 하 방향 중 하나로 이동시키고, 이동된 영역으로부터 추출된 영상 데이터를 표시하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  13. 제11항에 있어서,
    상기 제어 신호가 전진 키 또는 후진 키 입력 중 하나 임에 따라 상기 오리지널 영상 데이터에서 상기 디스플레이에 출력될 영역을 축소 또는 확대 처리하고, 상기 축소 또는 확대 처리된 영역으로부터 추출된 영상 데이터를 표시하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  14. 제11항에 있어서,
    하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 영상 출력 제어 신호를 저장하는 데이터베이스를 포함하고,
    상기 방법은,
    상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 영상 출력 제어 신호를 획득하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  15. 제11항에 있어서,
    상기 서버로부터 수신되는 컨텐츠는 오디오 데이터를 더 포함하고,
    상기 방법은,
    상기 획득된 제어 신호에 대응하는 오디오 출력 제어 신호를 획득하는 동작,
    상기 획득된 제어 신호에 기반하여 상기 서버로부터 수신되는 오디오 데이터를 처리하는 동작, 및
    상기 처리된 오디오 데이터를 출력하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  16. 제15항에 있어서,
    상기 하나 이상의 사용자 입력에 대응하는 제어 신호에 대응하여 각각 매핑된 오디오 출력 제어 신호를 저장하는 데이터베이스를 포함하고,
    상기 방법은,
    상기 데이터베이스를 참조하여 상기 획득된 제어 신호에 대응하는 상기 오디오 출력 제어 신호를 획득하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  17. 제16항에 있어서,
    상기 오디오 출력 제어 신호는 상기 이펙트 사운드 제어 신호를 포함하고,
    상기 방법은,
    상기 획득된 제어 신호에 대응하는 상기 이펙트 사운드 제어 신호를 획득하는 동작,
    상기 획득된 이펙트 사운드 제어 신호에 기반하여 이펙트 사운드를 처리하는 동작, 및
    상기 서버로부터 수신된 오디오 데이터와 상기 처리된 이펙트 사운드를 믹싱하여 출력하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  18. 제16항에 있어서,
    상기 오디오 출력 제어 신호는 오디오 파라미터 제어 신호를 포함하고,
    상기 획득된 제어 신호에 대응하는 상기 오디오 파라미터 제어 신호를 획득하는 동작, 및
    상기 획득된 오디오 파라미터 제어 신호에 따라 상기 서버로부터 수신된 오디오 데이터를 조정하고, 조정된 오디오 데이터를 출력하는 동작을 더 포함하는, 전자 장치의 동작 방법.
  19. 전자 장치의 동작 방법의 구현을 위해 전자 장치의 프로세서에 의해 실행되는 하나 이상의 프로그램이 기록된 컴퓨터 판독가능 기록 매체에 있어서, 상기 전자 장치의 동작 방법은,
    서버로부터 수신된 컨텐츠를 디스플레이에 표시하는 동작,
    상기 디스플레이에 표시된 상기 컨텐츠를 제어하는 사용자 입력에 대응하는 제어 신호를 획득하는 동작,
    상기 획득된 제어 신호에 기반하여 상기 컨텐츠를 처리할 수 있도록 상기 획득된 제어 신호를 상기 서버로 전송함과 함께, 상기 획득된 제어 신호에 대응하는 영상 출력 제어 신호를 획득하는 동작,
    상기 획득된 영상 출력 제어 신호에 기반하여 상기 디스플레이에 표시되는 컨텐츠를 처리하는 동작, 및
    상기 처리된 컨텐츠를 표시하는 동작을 포함하는, 컴퓨터 판독가능 기록 매체.
KR1020220043062A 2022-04-06 2022-04-06 전자 장치 및 그 동작 방법 KR20230143872A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220043062A KR20230143872A (ko) 2022-04-06 2022-04-06 전자 장치 및 그 동작 방법
PCT/KR2023/004679 WO2023195806A1 (ko) 2022-04-06 2023-04-06 전자 장치 및 그 동작 방법
US18/140,091 US20240082705A1 (en) 2022-04-06 2023-04-27 Electronic apparatus and method of operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220043062A KR20230143872A (ko) 2022-04-06 2022-04-06 전자 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
KR20230143872A true KR20230143872A (ko) 2023-10-13

Family

ID=88243275

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220043062A KR20230143872A (ko) 2022-04-06 2022-04-06 전자 장치 및 그 동작 방법

Country Status (3)

Country Link
US (1) US20240082705A1 (ko)
KR (1) KR20230143872A (ko)
WO (1) WO2023195806A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102094677B1 (ko) * 2014-05-22 2020-03-30 에스케이플래닛 주식회사 클라우드 스트리밍 서비스 시스템, 클라우드 스트리밍 서비스 방법 및 이를 위한 서버
US11077364B2 (en) * 2018-04-02 2021-08-03 Google Llc Resolution-based scaling of real-time interactive graphics
US11660535B2 (en) * 2019-10-11 2023-05-30 Nvidia Corporation Hardware acceleration and event decisions for late latch and warp in interactive computer products
JP7416925B2 (ja) * 2020-03-12 2024-01-17 グーグル エルエルシー クラウドゲーム時のプレーヤ対話型ウィンドウへのプレーヤ入力の遅延認識フィルタリング
KR20200127926A (ko) * 2020-10-27 2020-11-11 넷마블 주식회사 스트리밍에 기초한 게임 제공 방법 및 장치

Also Published As

Publication number Publication date
US20240082705A1 (en) 2024-03-14
WO2023195806A1 (ko) 2023-10-12

Similar Documents

Publication Publication Date Title
US9723123B2 (en) Multi-screen control method and device supporting multiple window applications
WO2017148294A1 (zh) 基于移动终端的设备控制方法、装置和移动终端
KR101917844B1 (ko) 원격 조정 장치 및 원격 조정 장치의 화면 제어방법
US11043013B2 (en) Display apparatus control method and display apparatus using the same
WO2016204185A1 (ja) パラメータ制御装置、パラメータ制御プログラムおよびパラメータ制御方法
US20170272681A1 (en) Display device and method of operating the same
CN114297436A (zh) 一种显示设备及用户界面主题更新方法
CN112995551A (zh) 一种声音控制方法及显示设备
US20210289165A1 (en) Display Device and Video Communication Data Processing Method
US20160191841A1 (en) Display device and display method
US11431909B2 (en) Electronic device and operation method thereof
KR20210074877A (ko) 디스플레이 장치 및 그 동작방법
WO2018045882A1 (zh) 控制智能终端应用的软操作键的方法及系统
KR20230143872A (ko) 전자 장치 및 그 동작 방법
JP2014149610A (ja) 情報処理装置、遠隔操作支援方法およびプログラム
JP5476734B2 (ja) サーバ、リモート操作システム、伝送方式選択方法、プログラム及び記録媒体
CN115103144A (zh) 显示设备及音量条显示方法
CN112104950B (zh) 一种音量控制方法及显示设备
KR102267194B1 (ko) 단말기 및 그의 동작 방법
US11310441B2 (en) Electronic device for generating a background image for a display apparatus and operation method thereof
CN114501158A (zh) 显示设备、外接音响设备及外接音响设备音频输出的方法
KR20210001868A (ko) 디스플레이 장치 및 그 제어 방법
US20240004600A1 (en) Display apparatus and operating method of the display apparatus
KR20240002132A (ko) 디스플레이 장치 및 그 동작 방법
CN113115105B (zh) 一种显示设备及配置wisa扬声器的提示方法