KR20150084005A - 핸드헬드 디스플레이 줌 피쳐 - Google Patents

핸드헬드 디스플레이 줌 피쳐 Download PDF

Info

Publication number
KR20150084005A
KR20150084005A KR1020157012007A KR20157012007A KR20150084005A KR 20150084005 A KR20150084005 A KR 20150084005A KR 1020157012007 A KR1020157012007 A KR 1020157012007A KR 20157012007 A KR20157012007 A KR 20157012007A KR 20150084005 A KR20150084005 A KR 20150084005A
Authority
KR
South Korea
Prior art keywords
image data
frame
display
image
units
Prior art date
Application number
KR1020157012007A
Other languages
English (en)
Inventor
로널드 더글라스 존슨
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Priority to KR1020157012007A priority Critical patent/KR20150084005A/ko
Publication of KR20150084005A publication Critical patent/KR20150084005A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42208Display device provided on the remote control
    • H04N21/42209Display device provided on the remote control for displaying non-command information, e.g. electronic program guide [EPG], e-mail, messages or a second television channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network
    • H04N21/43637Adapting the video or multiplex stream to a specific local network, e.g. a IEEE 1394 or Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region

Abstract

제어 디바이스(116)는, 제2 디스플레이(116d)를 구비하며, 적어도 하나의 프레임을 포함하는 제1 이미지 데이터로부터 생성된 프레임 단위의 이미지들을 디스플레이하는 제1 디스플레이(114d) 상의 일부분(350)을 선택하고; 제1 디스플레이(114d) 상의 선택된 부분(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하고; 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 제2 이미지 데이터를 생성하고; 제1 디스플레이(114d) 상에 디스플레이된 이미지를 온전하게 남겨두면서, 제2 디스플레이(116d) 상에 제2 이미지(350')로서 디스플레이하기 위해 제2 이미지 데이터를 제어 디바이스(116)에 제공하도록 사용된다. 생성된 제2 이미지 데이터는 확대 인자(magnification factor)에 의해 확대된 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터일 수 있다.

Description

핸드헬드 디스플레이 줌 피쳐{HANDHELD DISPLAY ZOOM FEATURE}
본 발명은 일반적으로 디지털 이미지 디스플레이 방법들 및 비디오 수신기(108)에 관한 것이다.
텔레비전 세트와 같은 디스플레이 디바이스의 스크린 상에 디스플레이된 정지(still) 또는 움직이는 이미지들을 시청할 때, 사용자는 스크린의 선택된 부분에 대해 줌잉-인(zoom-in)하기를 원할 수 있다. 줌 피쳐는 디지털 비디오 디스크 (DVD) 재생기들에 대해 보편적이다. 전형적인 하나의 구현에서, DVD 줌 피쳐는 스크린의 일부분의 확대된 버전을 디스플레이함으로써 그 부분에 대해 줌잉-인한다. 이러한 피쳐는 선택된 컨텐츠에 대한 줌잉-인을 허용하지만, 그 대신 디스플레이되었던 다른 컨텐츠를 제거하거나 또는 모호하게(obscuring) 한다. 유사하게도, 잘 알려진 다양한 컴퓨터 운영 체제들은 줌 또는 확대 렌즈 피쳐들을 갖고 있지만, 또한 스크린으로부터의 컨텐츠의 일부 다른 부분을 뷰(view)로부터 제거한다.
본 발명은, 종래 기술의 줌 피쳐가 선택된 컨텐츠에 대한 줌잉-인을 허용하지만, 그 대신 디스플레이되었던 다른 컨텐츠를 제거하거나 또는 모호하게 한다는 단점과, 종래 기술의 잘 알려진 다양한 컴퓨터 운영 체제들이 줌 또는 확대 렌즈 피쳐들을 갖고 있지만, 또한 스크린으로부터의 컨텐츠의 일부 다른 부분을 뷰로부터 제거한다는 단점을 극복할 수 있는 핸드헬드 디스플레이 줌 피쳐를 제공하는 것을 목적으로 한다.
제2 디스플레이를 구비하며, 적어도 하나의 프레임을 포함하는 제1 이미지 데이터로부터 생성된 프레임 단위의 이미지들을 디스플레이하는 제1 디스플레이 상의 일부분을 선택하고; 제1 디스플레이 상의 선택된 부분에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하고; 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 제2 이미지 데이터를 생성하고; 제2 디스플레이 상에 제2 이미지로서 디스플레이하기 위해 제2 이미지 데이터를 제어 디바이스에 제공하기 위해 제어 디바이스를 사용하는 것을 수반하는 예시적인 방법들 및 장치가 개시된다.
한 실시예에서, 제1 디스플레이 상의 부분을 선택하는 것은 제어 디바이스의 카메라로부터 제1 디스플레이 상에 디스플레이된 이미지의 일부분을 나타내는 제3 이미지 데이터를 수신하는 것을 포함하며, 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하는 것은 제3 이미지 데이터에 대응하는 일부분에 대한 제1 이미지 데이터를 탐색하는 것을 포함한다.
다른 실시예에서, 제1 디스플레이 상의 부분을 선택하는 것은 제어 디바이스의 카메라로부터 제3 이미지 데이터를 수신하는 것을 포함하며, 제3 이미지 데이터의 제1 부분은 제1 디스플레이의 이미지를 나타내고, 제1 이미지 데이터의 프레임 내의 제1 부분은 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 상대적 포지션(relative position) 및 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 사이즈에 따라 결정된다. 추가적인 한 실시예에서, 제1 이미지 데이터의 해상도가 AXB 단위들이고, 제3 이미지 데이터의 해상도가 WXH 단위들이라면, 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하는 것은, 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 위치를 찾고(locating), 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의, 중심 또는 모퉁이들 중 하나와 같은 한 지점을 나타내는 제3 이미지 데이터 내의 포지션 (p, q)을 결정하는 것과; a=(A/W)*p이고, b=(B/H)*q인, 제1 이미지 데이터의 프레임 내의 제1 부분의 대응 지점을 (a, b)로서 결정하는 것을 포함한다. 제3 이미지 데이터의 제1 부분의 사이즈가 w 단위들의 폭 및 h 단위들의 깊이를 포함한다면, 각각 d 단위들 및 e 단위들인 제1 이미지 데이터의 프레임 내의 제1 부분의 폭 및 깊이는 d=(A/W)*w이고, e=(B/H)*h로서 결정될 수 있다.
예시적인 한 실시예에서, 생성된 제2 이미지 데이터는 확대 인자(magnification factor)에 의해 확대된 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터이다. 확대 인자는 w 또는 h로부터 결정될 수 있다. 예를 들어, 확대 인자는 W/w 또는 H/h일 수 있다. 확대 인자는 또한 사용자에 의해 셋업된 셋팅 데이터베이스로부터 얻어질 수 있다.
제1 이미지 데이터는 정지 이미지 또는 비디오 프레임을 나타낼 수 있다.
이에 따라, 본 발명의 예시적인 실시예들은, 제1 디스플레이 상에 디스플레이된 이미지를 온전하게 남겨두면서, 해상도의 손실없이, 제2 디스플레이가, 선택된 부분의 확대된 버전을 보여주는 것을 허용한다.
전술사항의 관점에서, 그리고 상세한 설명으로부터 명백해지는 바와 같이, 다른 실시예들 및 특징들이 또한 가능하며, 이들은 본 발명의 원리들에 속한다.
본 발명의 실시예들에 따른 장치 및/또는 방법들의 일부 실시예들은 이제 단지 예시를 통해서, 그리고 다음의 첨부 도면들을 참조하여 설명된다.
본 발명을 통해, 종래 기술의 줌 피쳐가 선택된 컨텐츠에 대한 줌잉-인을 허용하지만, 그 대신 디스플레이되었던 다른 컨텐츠를 제거하거나 또는 모호하게 한다는 단점과, 종래 기술의 잘 알려진 다양한 컴퓨터 운영 체제들이 줌 또는 확대 렌즈 피쳐들을 갖고 있지만, 또한 스크린으로부터의 컨텐츠의 일부 다른 부분을 뷰로부터 제거한다는 단점을 극복할 수 있는 핸드헬드 디스플레이 줌 피쳐가 제공된다.
도 1은 본 발명의 하나 이상의 실시예들이 사용될 수 있는 한 예시적인 환경의 블록도.
도 2는 본 발명에 따른 시청각 컨텐츠 전달 디바이스의 한 예시적인 실시예의 블록도.
도 3a는 본 발명의 원리들에 따른 시청각 컨텐츠 전달 디바이스, 디스플레이 디바이스, 및 제어 디바이스 사이의 상호 작용의 도시적 표현.
도 3b는 디스플레이 디바이스를 보여주는 제어 디바이스의 카메라에 의해 포획된 이미지의 도식적 표현.
도 3c는 디스플레이 디바이스에 의해 디스플레이된 이미지의 도시적 표현.
도 4는 본 발명의 원리들에 따른 한 예시적인 방법의 흐름도.
도 5는 본 발명의 원리들에 따른 제어 디바이스에 의해 수행된 한 예시적인 방법의 흐름도.
도 6은 본 발명의 원리들에 따른 비디오 수신기에 의해 수행된 한 예시적인 방법의 흐름도.
도 1은 본 발명의 하나 이상의 실시예들이 사용될 수 있는 한 예시적인 환경(100)의 블록도이다. 환경(100)에서, 서버 또는 헤드엔드 등과 같은 컨텐츠 소스(102)로부터 유래하는 시청각 컨텐츠는 전달 네트워크(106)를 통해 디스플레이 디바이스(114)에 결합된 AV 전달 디바이스(AVDD)로서 도시된 비디오 수신기에 전달된다. AV 전달 디바이스(108)는 아래에 더 상세히 설명되는 바와 같이 컨텐츠를 프로세싱하며, 프로세싱된 컨텐츠를 디스플레이 디바이스(114)에 제공한다. 디스플레이 디바이스(114)는, 예를 들어 하나 이상의 2-D 또는 3-D 표준 선명도(SD) 또는 고 선명도(HD) 디스플레이들, 모니터들, 또는 텔레비전 수신기들을 포함할 수 있다.
전달 네트워크(106)는 유선 및 무선 요소들 모두를 포함할 수 있으며, 예를 들어 국영 센터로부터 하나 이상의 지역 또는 로컬 센터들로의 위성 링크 송신을 포함할 수 있다. 전달 네트워크(106)는 또한 오버-디-에어(over-the-air), 위성, 또는 케이블 방송과 같은 로컬 전달 시스템들을 사용한 로컬 컨텐츠 전달을 포함할 수도 있다. 전달 네트워크(106)는 특히 광섬유, 이더넷, 전화선 네트워크들, 및 고속 광대역 인터넷 유형의 통신 시스템들을 포함할 수 있다.
AV 전달 디바이스(108)는 다양한 방식들로 구현될 수 있으며, 이는 디지털 비디오 기록기(DVR), 게이트웨이, 모뎀 등을 구비하거나 또는 구비하지 않은 셋톱 박스(STB)와 같은 네트워크-연결된 실시예들; DVD 재생기, 비디오 서버 등과 같은 독립형(stand-alone) 실시예들; 또는 이들의 결합을 포함할 수 있다. 선택적으로, AV 전달 디바이스(108)는 홈 네트워크에서의 클라이언트 또는 피어 디바이스들로서 구성된 추가적인 디바이스들을 포함하는 홈 네트워크 시스템을 위한 엔트리 포인트(entry point), 또는 게이트웨이의 역할을 할 수 있다. 디바이스(108)는 또한 디스플레이 디바이스(114)와 같은 시청각 디바이스를 포함하는 다른 시스템들 또는 디바이스들로 병합될 수도 있다.
AV 전달 디바이스(108)는 또한 바람직하게는 핸드헬드 또는 휴대용인 제어 디바이스(116)에 바람직하게는 무선으로 인터페이스된다. 제어 디바이스(116)는 AV 전달 디바이스(108) 및/또는 디스플레이 디바이스(114)를 위한 사용자 인터페이스를 제공하도록 적응될 수 있다. 제어 디바이스(116)는, 또한 그래픽들 및 이미지들과, 바람직하게는 움직이는 이미지들 또는 비디오를 디스플레이할 수 있는 디스플레이를 포함한다. 제어 디바이스(116)는 카메라(도시되지 않음), 키들(keys), 사용자 입력들을 수신하고 카메라를 제어하고 카메라로부터의 포획된 이미지들을 수신하기 위한 마이크로프로세서, 프로세서, 마이크로컨트롤러일 수 있는 제어기(도시되지 않음)를 포함한다. 디스플레이된 비디오는 디스플레이 디바이스(114)에 전달되는 비디오 컨텐츠의 모든 부분 또는 일부분을 포함할 수 있으며, 그래픽들은 아이콘들 또는 사용자 인터페이스 위젯들(widgets) 등을 포함할 수 있다. 한 예시적인 실시예에서, 제어 디바이스(116)는 터치 스크린을 포함하는데, 이는 사용자 입력과, 이미지들 및 그래픽들의 디스플레이 모두를 허용한다. 물론, 사용자 입력은 또한 디스플레이-전용 기능을 수행하는 스크린을 구비한 전용 버튼들 또는 이들의 임의의 결합을 통해 제공될 수 있다.
제어 디바이스(116)는 적외선(IR) 또는 무선 주파수(RF) 통신들과 같은 잘 알려진 임의의 신호 송신 시스템을 사용하여 AV 전달 디바이스(108)에 인터페이스할 수 있으며, 적외선 데이터 협회 (IRDA) 표준, 와이파이, 또는 블루투스 등과 같은 임의의 적절한 전매(proprietary) 또는 표준 프로토콜에 순응할 수 있다. 제어 디바이스(116)는, 예를 들어 다른 가능성들 중에서도, 적절한 소프트웨어로 구성된 태블릿 컴퓨터 또는 스마트폰과 같은 상업적으로 이용 가능한 디바이스, 또는 디바이스들(108 및/또는 114)의 제어에 대한 전용의 맞춤화된 디바이스를 사용하여 구현될 수 있다. 앞서 언급된 바와 같이, 제어 디바이스(116)는 제어 디바이스(116)의 동작들을 제어하기 위한 제어기(도시되지 않음)를 포함한다. 제어 디바이스(116)의 동작은 아래에 더 상세하게 설명될 것이다.
이제 도 2로 가보면, AV 전달 디바이스(108)의 한 실시예의 블록도가 도시된다. 간결함을 위해, 잘 알려져 있는 범위에서, 디바이스의 완전한 동작을 위해 필수적인 모든 구성 요소들이 도시되는 것은 아니다. AV 전달 디바이스(108)는 프로세서-기반의 시스템이며, 이는 제어기(210) 및 메모리(215)로 나타내어지는 바와 같이 하나 이상의 프로세서들 및 연관된 메모리를 포함한다. 제어기(210)는 본 명세서에 기재된 기능들에 대해 전용일 수 있거나 또는 전용이 아닐 수 있는 하나 이상의 저장된-프로그램 제어 프로세서들을 나타내며; 즉 제어기(210)는 또한 AV 전달 디바이스(108)의 다른 기능들을 제어할 수 있다. 게다가, 디바이스(108)가 보다 더 큰 디바이스 또는 시스템의 부분인 경우, 제어기(210)는 또한 이 디바이스 또는 시스템의 다른 기능들을 제어할 수 있다.
제어기(210)는 입력 스트림 신호를 저장 또는 디스플레이를 위한 신호로 변환하기 위한 프로세스를 관리한다. 제어기(210)는 또한 저장된 컨텐츠의 검색(retrieval) 및 재생을 관리한다. 더욱이, 제어기(210)는 컨텐츠의 탐색 및 컨텐츠를 나타내는 그리드 디스플레이의 생성 및 조정을 수행한다. 제어기(210)는 마이크로프로세서 또는 이와 유사한 것으로 구현될 수 있다.
제어기(210)는 제어기(210)를 위한 정보 및 명령어 코드를 저장하는 메모리(215)와 상호 연결된다. 메모리(215)는, 예를 들어 RAM, SRAM, DRAM, ROM, 프로그래밍이 가능한 ROM(PROM), 플래쉬 메모리, 전자적으로 프로그래밍이 가능한 ROM(EPROM), 또는 전자적으로 소거가 가능하며 프로그래밍이 가능한 ROM(EEPROM) 등을 포함하는 휘발성 또는 비-휘발성 메모리로 구현될 수 있다. 추가적으로, 메모리(215)의 구현은 단일 메모리 디바이스, 또는 대안적으로 공유되거나 공통적인 메모리를 형성하도록 함께 통신 가능하게 연결 또는 결합된 두 개 이상의 메모리 회로와 같은 몇몇의 가능한 실시예들을 포함할 수 있다. 더 추가적으로, 메모리(215)는, 다른 가능성들 중에서도, 제어기(210) 및/또는 버스 통신 회로의 부분들과 같은 다른 회로와 집적될 수 있다.
메모리(215)는 또한 컨텐츠를 포함하는 그래픽 요소들과 같은 요소들의 데이터베이스를 저장할 수 있다. 데이터베이스는 그래픽 요소들의 패턴으로서 저장될 수 있다. 대안적으로, 메모리(215)는 식별되거나 또는 그룹화된 메모리 위치들에 그래픽 요소들을 저장할 수 있고, 그래픽 요소들에 관련된 정보의 다양한 부분들에 대한 메모리 위치들을 식별하기 위해 액세스 또는 위치 테이블을 사용할 수 있다.
메모리(215)에 추가적으로, 제어기(210)는 입력 신호 수신기(202), 입력 스트림 프로세서(204), 오디오/비디오 프로세서(206), 저장소(212), 무선 인터페이스(216), 및 사용자 인터페이스(222)를 포함하는 AV 전달 디바이스(108)의 다른 구성요소들을 구비한 다른 적절한 어레인지먼트(arrangement) 또는 버스를 통해서와 같이 상호 연결된다.
동작에 있어서, 시청각 컨텐츠를 운반하는 신호는 입력 신호 수신기(202)에 의해 수신된다. 입력 신호 수신기(202)는, 앞서 논의된 바와 같이, 컨텐츠가 분배될 수 있는 몇몇의 가능한 네트워크들(106) 중 어느 하나 이상의 것들로부터 수신된 신호들을 수신, 동조, 하향 변환, 선택, 복조, 및/또는 디코딩하기 위해 사용된 몇몇의 알려진 수신기 회로들 중 어느 하나 이상을 포함할 수 있다. 바람직한 입력 신호는, 예를 들어 사용자 입력 또는 프로그래밍 명령어들에 따라서와 같이, 제어기(210)의 제어 하에 입력 신호 수신기(202)에 의해 선택 및 포획될 수 있다.
디코딩된 입력 신호는 입력 신호 수신기(202)에 의해 입력 스트림 프로세서(204)에 제공된다. 입력 스트림 프로세서(204)는, 압축된 디지털 신호와 같은 수신된 포맷으로부터 사용자에게 프리젠테이션하기 위해 디스플레이 디바이스(114)에 제공될 수 있는 포맷으로의 변환을 위해, 신호 프로세싱을 수행하고, 프로세싱되고 수신된 신호를 오디오/비디오 프로세서(206)에 제공한다. 오디오/비디오 프로세서(206)는 또한 저장소(212)에의 시청각 컨텐츠의 저장 및 검색을 위한 임의의 필수적인 프로세싱을 수행한다.
입력 신호 수신기(202)에 의해 수신되거나 또는 저장소(212)로부터 검색된 오디오/비디오 프로세서(206)로부터의 변환된 신호는 앞서 기재된 유형의 디스플레이 디바이스(114)에 제공을 위해 인터페이스(208)에 제공된다. 인터페이스(208)는 레드-그린-블루(RGB) 인터페이스와 같은 아날로그 신호 인터페이스, 및/또는 고-선명도 멀티미디어 인터페이스(HDMI)와 같은 디지털 인터페이스를 포함할 수 있다. 디지털 컨텐츠는 적어도 하나의 프레임을 포함하고, 해상도가 특정된다.
저장소(212)는 제어 디바이스(116)로부터 또는 사용자 인터페이스(222)로부터 무선 인터페이스(216)를 통해 수신된 커맨드들(예컨대, 패스트-포워드 및 리와인드와 같은 네비게이션 명령어들)에 기초하여 제어기(210)의 제어 하에 컨텐츠의 나중 검색 및 재생을 허용하는 디바이스(108)에 의해 수신된 시청각 컨텐츠를 저장한다. 저장소(212)는 하드 디스크 드라이브, 정적 RAM(SRAM) 또는 동적 RAM(DRAM)과 같은 하나 이상의 대용량 집적 전자 메모리들, 및/또는 콤팩트 디스크(CD) 드라이브 또는 DVD 드라이브와 같은 상호 교환 가능한 광학 디스크 저장 시스템을 포함할 수 있다.
사용자 인터페이스(222)는 사용자가 AV 전달 디바이스(108)와 상호 작용할 수 있는 다양한 사용자 입력 및 출력 디바이스들(예컨대, 키들, 버튼들, 디스플레이들, 표시기들)을 포함할 수 있다. 예시적인 실시예들에서, 사용자 인터페이스(222)는 무선 인터페이스(216)를 통해 AV 전달 디바이스(108)에 인터페이스된 제어 디바이스(116)를 통해 발생하는 모든 사용자 상호 작용에 따라 제거될 수 있다.
제어 디바이스(116)는 줌잉-인, 줌잉-아웃, 재생, 정지, 패스트-포워드, 리와인드, 프로그램 선택 등과 같은 다양한 기능들을 표현하도록 사용될 수 있다. 터치 패널로 구현될 때, 제어 디바이스(116)는 손의 움직임들 또는 제스쳐들, 및 터치 패널을 통해 커맨드들로 번역된 행위들에 기초하여 AV 전달 디바이스(108)의 동작을 허용한다. 제어 디바이스(116)의 구현에 의존하여, 음성 인식과 같은 다른 기술들은, 예를 들어 커맨드들을 입력하도록 사용될 수 있다.
예시적인 실시예들에서, 제어 디바이스(116)는 또한 적어도 하나의 카메라 요소를 포함한다. 카메라 요소는 바람직하게는 사용자 입력 제어 및 디스플레이(예컨대, 터치 스크린)로부터 맞은 편에 있는 디바이스의 측면에 장착되며, 아래에 설명되는 바와 같이 사용될 수 있다.
도 3a를 참조하면, AV 전달 디바이스(108), 디스플레이 디바이스(114), 및 제어 디바이스(116) 사이의 상호 작용이 이제 설명될 것이다. 동작에 있어서, 디스플레이 디바이스(114)에 디스플레이된 이미지(310)의 영역(350)에 대해 줌잉 인하기를 원하는 사용자는 제어 디바이스(116)의 카메라(116c)를 그 영역 쪽으로 향하게(point) 하고, 제어 디바이스(116)의 디스플레이(116d) 상의 영역(350)을 시청할 것이다. 바람직하게는, 제어 디바이스(116) 상에 디스플레이된 줌잉-인된 이미지는, 이미지(310)가 변경될 때, 그리고/또는 사용자가 제어 디바이스를 이동시키고 카메라의 방향을 재지정할 때, 실시간으로 또는 근 실시간으로 업데이트된다. 또한, 바람직하게는, 사용자에게는 제어 디바이스(116) 상에서 키를 누름으로써와 같이, 영역(350)의 정지 이미지를 시청 및/또는 포획하기 위한 옵션이 주어진다. 포획된 이미지는, 바람직하게는 제어 디바이스(116)의 디스플레이(제2 디스플레이)의 해상도를 갖는 제3 이미지 데이터에 의해 나타내어진다. 추가적으로, 영역(350)의 배향 및/또는 종횡비는 바람직하게는 디스플레이(116d)의 그것에 순응한다.
아래에 더 상세하게 설명되는 바와 같이, AV 전달 디바이스(108)는, 제1 이미지 데이터의 프레임으로부터 생성되는 이미지(310) 내의 영역(350)에 대응하는 소스 컨텐츠(적어도 하나의 프레임을 포함하는 제1 이미지 데이터) 내의 프레임의 제1 부분의 위치를 찾기 위해 제어 디바이스(116)의 카메라(116c)에 의해 제3 이미지 데이터로 나타내어진 포획된 이미지를 사용한다. 그리고 나서, 제2 이미지 데이터는 제1 이미지 데이터의 프레임 내의 제1 부분으로부터, 바람직하게는 그것의 본래의 해상도로 생성되며, 제2 이미지로서 디스플레이(116d)(제2 디스플레이) 상에 디스플레이하기 위해 프로세싱되고 제어 디바이스(116)에 전송된다. 동작에 있어서, 카메라에 의해 실제로 포획된 이미지가 디지털 방식으로 확장될 경우에 일어날 해상도의 손실 및 부정확함 없이, 사용자에게는 마치 제어 디바이스(116)의 카메라(116c)가 관심 영역(350)에 대해 줌잉-인하는 것처럼 나타날 것이다. 이러한 해상도의 손실은, 예를 들어 특히 현저할 것인데, 여기서 소스 재료는 고 해상도 사진 이미지(photographic image)이다. 예를 들어, 20 메가픽셀 이미지가 전형적인 720p 텔레비전 모니터 상에 오직 1 메가픽셀의 해상도로 디스플레이될 것이며, 이로써 상당히 많은 양의 세목들을 손실할 것이다.
상기 실시예는 정지 이미지들을 나타내는 이미지 소스(제1 이미지 데이터)에 적절하다. 줌잉을 위한 확대 인자는 사용자에 의해 셋업된 사용자 셋팅 데이터베이스로부터 발견될 수 있다. 한 실시예에서, 포획된 제3 이미지 데이터가 WXH 픽셀들이고 제1 이미지 데이터의 프레임 내의 제1 부분의 사이즈가 aXb 픽셀들이라면, 확대 인자는 제2 디스플레이(116d)의 폭을 채우기 위한 W/a, 또는 제2 디스플레이(116d)의 깊이를 채우기 위한 H/b로서 자동으로 생성된다. 단위로서 "픽셀"을 사용할 지라도, "블록", 예를 들어 "매크로블록"과 같은 다른 단위가 또한 사용될 수 있다.
한 예시적인 실시예에서, 제어 디바이스(116)는 카메라(116c)에 의해 포획된 제3 이미지 데이터를 AV 전달 디바이스(108)에 전송하는데, AV 전달 디바이스(108)는 제3 이미지 데이터 내의 디스플레이 디바이스(114)의 디스플레이(114d)의 모든 부분 또는 일부분을 탐색함으로써, 그리고 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 도출해내기 위해 제3 이미지 데이터 내의 디스플레이(114d)의 상대적 위치를 사용함으로써 영역(350)에 대응하는 제1 이미지 데이터의 제1 부분의 위치를 찾기 위해 제3 이미지 데이터를 사용한다. 바람직하게도, 카메라(116c)에 의해 포획된 제3 이미지 데이터는 제3 이미지 데이터의 제1 부분을 점유하는 전체 디스플레이(114d)를 포함한다. 관심 영역(350)은 미리 한정된 사이즈 또는 다양한 사이즈일 수 있다. 제1 이미지 데이터의 프레임 내의 제1 부분에서의 한 지점의 위치로 나타내어질 수 있는 영역(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분의 위치는 제3 이미지 데이터의 제1 부분을 점유하는 디스플레이 디바이스(114)의 디스플레이(114d)의 이미지 내의 대응 부분의 위치에 의해 결정될 수 있다. 두 개의 대응하는 지점들은 각각 제3 이미지 데이터의 제1 부분 및 제1 이미지 데이터의 프레임 내의 제1 부분의 모퉁이들 중 하나 또는 중심일 수 있다. 이미지(310)는 제1 이미지 데이터의 프레임으로부터 생성된다. 이미지(310) 내의 한 포지션이 제1 이미지 데이터의 대응 프레임 내의 대응 포지션을 갖기 때문에, 관심 영역(AOI)(350)은 제1 이미지 데이터의 프레임 내의 제1 부분을 결정한다. 제3 이미지 데이터 내의 디스플레이(114d)를 탐색할 때, AV 전달 디바이스(108)는, 예를 들어 디스플레이(114d)를 둘러싸고 윤곽을 나타내는(delienate) 디스플레이 디바이스(114)의 프레임(114f)을 탐색할 수 있다. 이미지 탐색을 수행하기 위한 다양한 잘 알려진 기술들 중 어느 것은 이러한 목적을 위해 사용될 수 있다. 전체 디스플레이(114d)가 이미지 내에서 포획되지 않는 경우, 줌잉-인 기능은, 사용자가 이들 조건들이 충족되도록 카메라(116c)의 포지션을 재지정할 때까지 비활성화될 수 있다.
카메라(116c)에 의해 포획된 제3 이미지 데이터 내의 디스플레이(114d)의 상대적 위치에 기초하여, AV 전달 디바이스(108)는 제1 디스플레이(114d)의 이미지(310) 내의 영역(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분을 결정할 수 있다. 제3 이미지 데이터(350)의 디스플레이(114d)의 사이즈가 주어지면, 영역(350)과 연관된 제1 이미지 데이터(예컨대, MPEG 매크로블록들)의 프레임 내의 제1 부분의 사이즈는 쉽게 결정 및 액세스될 수 있다. 영역(350)에 대응하는 제1 이미지 데이터의 제1 부분을 사용하여, AV 전달 디바이스(108)는 제1 이미지 데이터의 프레임 내의 제1 부분을 제2 이미지 데이터로서 재생성할 수 있으며, 영역(350')으로서 도시된 디스플레이(116d)에 의한 제2 이미지로서 디스플레이하기 위해 제2 이미지 데이터를 제어 디바이스(116)에 제공할 수 있다. 영역(350')은 사용자 커맨드에 응답하여 확대될 수 있다. 영역(350')이 바뀔 때, 제어 디바이스는 수신된 제2 이미지 데이터로부터 생성된 이미지의 사이즈를 수동으로 또는 자동으로 조정할 수 있다. 영역(350')이 {예컨대, 디스플레이(116d)의 전체 스크린을 점유하는} 고정된 사이즈로 디스플레이(116d) 상에 디스플레이되는 경우, 확대는 제3 이미지 데이터 내의 디스플레이(114d)의 사이즈에 따라 변할 수 있다. 예를 들어, 영역(350')의 사이즈가 RXS 픽셀들의 사이즈를 갖고 제3 이미지 데이터 내의 디스플레이(116d)의 사이즈가 wxh 픽셀들이라면, AV 전달 헤드는 영역(350')의 폭을 맞추기 위해 R/w의 인자(factor)에 의해, 또는 영역(350')의 깊이를 맞추기 위해 S/h의 인자를 통해 제1 이미지 데이터의 프레임 내의 제1 부분을 자동으로 확대할 수 있다. 이 실시예는 제1 이미지 데이터의 해상도가 제2 디스플레이(116d)의 해상도와 동일할 때에 잘 작용한다.
한 대안에서, 제1 이미지 데이터의 프레임 내의 제1 부분이 aXb 픽셀들의 사이즈를 갖는 경우, AV 전달 디바이스(108)는 영역(350')의 폭을 채우기 위해 R/a의 인자에 의해, 또는 영역(350')의 깊이를 채우기 위해 S/b의 인자에 의해 제1 이미지 데이터의 프레임 내의 제1 부분을 확대할 수 있다. 이 실시예는 제1 이미지 데이터의 해상도가 제2 디스플레이(116d)의 해상도와 동일하지 않을 때에 잘 작용한다.
제어 디바이스(116)를 사용하는 사용자는, 자동으로 또는 특정된 확대 인자로 AOI(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분을 확대할 것을 AV 전달 디바이스(108)에 명령할 수 있다. 사용자가 영역(350')의 사이즈를 변경할 때, 사용자는, AV 전달 디바이스(108)에서 확대 인자를 변경하지 않고도 제어 디바이스(116)에서 확대 인자를 변경하도록 제어 디바이스(116)를 구성할 수 있다. 한 실시예에서, 사용자는 영역(350')의 업데이트된 사이즈를 AV 전달 디바이스(108)에 전송하도록 제어 디바이스(116)를 또한 구성할 수 있어서, AV 전달 헤드(108)는 업데이트된 사이즈에 따라 확대를 자동으로 변경할 수 있다.
관심 영역(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분의 결정은 이제 도 3b 및 도 3c를 참조하여 설명될 것이다. 도 3b는 디스플레이 디바이스(114)를 보여주는 카메라(116c)에 의해 포획된 제3 이미지 데이터로부터 생성된 이미지(316)의 도식적 표현을 제공한다. 디스플레이 디바이스(114)의 디스플레이(114d)를 나타내는 이미지(316)의 부분이 지정된다(114d'). 도시된 바와 같이, 이미지(316) 및 이미지 부분(114d')은 직사각형이고, 이는 제3 이미지 데이터 내에서 각각 W 및 w 픽셀들의 폭을 갖고, 제3 이미지 데이터 내에서 각각 H 및 h 픽셀들의 높이를 갖는다. 앞서 지적한 바와 같이, '픽셀'이 하나의 단위로서 사용되었지만, '블록', 예를 들어 "매크로블록"과 같은 다른 단위들이 또한 사용될 수도 있다. 이미지(316)는 예시의 간소화를 위해 하부 좌측 모퉁이에 원점을 갖는 제3 이미지 데이터 내의 지점들 또는 픽셀들 (x, y)의 그리드로서 고려될 수 있다. 다른 위치들이 또한 원점으로서 선택될 수 있는데, 예를 들어 제3 이미지 데이터의 중심과 3개의 다른 모퉁이들 중 어느 것이 원점으로서 사용될 수도 있다. 이미지 부분(114d')은 제3 이미지 데이터 내의 (xc, yc)에 중심을 갖는 지점들 (x0, y0), (x0+w, y0), (x0+w, y0+h), 및 (x0, y0+h)에 정점들(vertices)이 있는 직사각형으로 고려될 수 있으며, 여기서 xc = x0 + w/2 이며, yc = y0 + h/2이다. 이들 지점들은 앞서 언급된 바와 같이, 적절한 이미지 탐색 기술에 의해 결정될 수 있다.
앞서 언급된 바와 같이, 제1 이미지 데이터의 프레임으로부터 생성되는 이미지(310) 내의 AOI(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분은 제3 이미지 데이터(316) 내의 이미지 부분(114d')의 상대적 위치에 기초하여 결정될 수 있다. 보다 구체적으로, 제3 이미지 데이터(316) 내의 이미지 부분(114d')의 중심의 포지션은 블록들, 예를 들어 제1 이미지 데이터를 집합적으로 형성하는 MPEG 매크로블록들과 같은 이미지 단위들의 그리드로 맵핑될 수 있다. 이러한 그리드는 도 3c에 도식적으로 도시되며, 여기서 그리드는 제1 이미지 데이터 내에서 M 블록들의 폭 및 N 블록들의 높이이며, 각각의 블록은 (m, n)으로 지정되고, 이는 제1 이미지 데이터 내의 하부 좌측 모퉁이에 있는 블록 (1, 1)에서 시작한다.
이해될 수 있는 바와 같이, AOC(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분의 중심 블록에 대응하는 블록 (mC, nC)은 다음의 표현에 따라 결정될 수 있다:
Figure pct00001
Figure pct00002
이에 따라, 블록 (mC, nC)이 결정되면, 제1 이미지 데이터의 프레임 내의 제1 부분은 블록 (mC, nC), 또는 블록 (mC, nC)과, 블록 (mC, nC)을 둘러싸는 추가적인 블록을 포함하는 블록들의 세트로서 선택될 수 있다. 예를 들어, 도 3c에 예시적으로 도시되는 바와 같이, AOI(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분은 블록 (mC, nC)과, 이를 인접하여 둘러싸는 8개의 블록들로 이루어진다. 제1 이미지 데이터의 프레임 내의 제1 부분을 나타내는 블록들의 개수는 이미지 부분(114d')의 사이즈에 따라 미리 결정되거나 또는 결정될 수 있다. 예를 들어, 제1 이미지 데이터의 프레임 내의 제1 부분의 폭은 ceil [M*w/W] 매크로블록들이고, AOI(350)의 깊이는 ceil [N*h/H]이다. 이에 따라, 제1 이미지 데이터의 프레임 내의 제1 부분의 사이즈 및 위치가 결정되면, AV 전달 디바이스(108)는 디스플레이(116d) 상에서 제2 이미지로서 영역(350')에 디스플레이하기 위해 대응하는 제2 이미지 데이터를 생성할 수 있다.
앞서 논의된 바와 같이, 사용자는, 예를 들어 제어 디바이스(116)를 사용하여 제어 디바이스(116)의 디스플레이(116d)의 영역(350')의 해상도(사이즈)를 AV 전달 디바이스(108)에 통지할 수 있고/있거나, 제어 디바이스(116)는, 영역(350')의 사이즈가 변경되었을 때, AV 전달 디바이스(108)에 업데이트된 사이즈를 자동으로 전송할 수 있다. 이러한 방식으로, AV 전달 디바이스(108)는, 확대 인자가 AV 전달 디바이스(108)에서 이용 가능하지 않거나 또는 AV 전달 디바이스(108)가 제1 이미지의 프레임 내의 제1 부분을 자동으로 줌잉하도록 명령을 받는 경우, 영역(350')의 폭 또는 영역(350')의 깊이를 맞추기 위해 AOI(350)를 자동으로 줌잉할 수 있다. 본 명세서에서 사용된 바와 같이, 디스플레이가 인물사진 또는 풍경화 배향으로 포지션 지정될 수 있을지라도, 디스플레이의 폭은 디스플레이의 깊이보다 더 길다. MXN 단위들의 사이즈 또는 해상도는 폭이 M 단위들이고 깊이가 N 단위들임을 의미한다.
이 실시예에서, 이미지(316) 내의 AOI(350)에 대응하는 제3 이미지 데이터 내의 부분의 위치는 이미지(316)로서 디스플레이된 제3 이미지 데이터 내의 이미지 부분(114d')의 위치에 대해 대칭적으로 맞은 편에 있는 사분면에 존재한다. 예를 들어, 카메라(116c)가 우측으로 이동 중일 때, AOI(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분은 또한 우측으로 이동 중이지만, 제3 이미지 데이터 내의 이미지 부분(114d')은 좌측으로 이동 중이다.
다른 실시예에서, 이미지(316) 내의 AOI(350)에 대응하는 이미지 내의 부분의 위치는 이미지(316)로서 디스플레이된 제3 이미지 데이터 내의 이미지 부분(114d')의 위치와 일치하며, 사용자는 이미지(316)로서 디스플레이된 제3 이미지 데이터 내의 이미지 부분(114d')의 위치에 따라 AOI(350)의 위치를 결정한다. 이 실시예에서, 제1 이미지 데이터의 프레임 내의 제1 부분의 중심 블록은 다음의 표현에 따라 결정될 수 있다:
Figure pct00003
Figure pct00004
비록 수학식 1, 수학식 2, 수학식 3 및 수학식 4가 단위로서 '블록'을 사용하고 있을지라도, 본 발명의 원리들은 단위로서 '픽셀'이 사용되는 경우에 동등하게 적용될 수 있다는 것이 주목될 것이다. 그러한 경우, (mC, nC)는 제1 이미지 데이터의 프레임 내의 제1 부분에 있는 중심 픽셀의 위치를 표시한다.
예시적인 실시예들에서, 일단 AV 전달 디바이스(108)가 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾았다면, 이는 대응 영역(350)을 표시하기 위해 디스플레이 디바이스(114)가 직사각형, 십자선 또는 다른 적절한 형상과 같은 그래픽을 디스플레이하게 할 수 있어, 이로써 이미지(310) 내에서 제어 디바이스(116)의 카메라(116c)가 향하게 되는 장소에 대한 시각적 피드백을 사용자에게 제공할 수 있다. 추가적으로, 영역(350)이 고정된 사이즈(예컨대, 전체 스크린)로 디스플레이(116d) 상에 디스플레이되는 경우, 영역(350)의 윤곽을 나타내는 직사각형과 같은 그래픽의 사이즈는 변한다.
다른 예시적인 실시예들에서, 제어 디바이스(116)는 사용자가 줌잉-인하기를 원하는 관심 영역(350)을 선택하기 위해 카메라 요소를 갖거나 이를 사용할 필요가 없다. 이러한 표시는 디스플레이 디바이스(114)의 스크린 상에 그리고/또는 제어 디바이스 자체의 스크린 상에 직사각형, 십자선들 또는 다른 적절한 형상과 같은 그래픽을 디스플레이함으로써, 그리고 사용자가 관심 영역(350)을 선택하기 위해 그래픽을 이동시키는 것을 허용함으로써 제공될 수 있다. 그래픽의 움직임 및/또는 관심 영역(350)의 선택은 제스쳐들, 소프트(soft) 또는 실제(actual) 키들(keys)의 누름(pressing), 음성 커맨드들, 또는 제어 디바이스(116)를 통해 가능한 잘 알려진 다른 사용자 인터페이스 기술들에 의해서와 같이 영향을 받을 수 있다.
한 예시적인 실시예에서, 카메라(116c)에 의해 포획된 제3 이미지 데이터는 640x480 픽셀들이다. 전형적인 사용에 있어서, 디스플레이(114d)를 나타내는 그 부분은, 예를 들어 200x120 픽셀들이거나, 또는 포획된 이미지 영역의 약 8%일 수 있다. 한 예시적인 동작 가능한 시나리오에서, 사용자는 디스플레이 디바이스(114)에서 카메라(116c)를 향하게 하며, 제어 디바이스(116)의 디스플레이(116d)의 중심에서 또는 그 중심 근처에서 일반적으로 나타나는 디스플레이(114d)를 통해 디스플레이(116d) 상에, 포획되어 이에 따라 디스플레이된, 바람직하게는 라이브인 제3 이미지 데이터를 확인한다. 예를 들어, 도 3b를 참조하여, (x0, y0) = (220, 180), W=640, H=480, w=200이고, h=120이다. 그리고 나서, 사용자는 입력 커맨드에 의해서와 같이, 줌잉-인할 것을 제어 디바이스(116)에 명령한다. 그리고 나서, 제어 디바이스(116)는 카메라(116c)에 의해 포획된 제3 이미지 데이터를, 제3 이미지 데이터 내의 제1 부분을 점유하는 디스플레이(114d)를 도시하는 해당 부분을 제3 이미지 데이터를 통해 탐색하는 AV 전달 디바이스(108)에 전송하고, 제3 이미지 데이터 내의 제1 부분의 사이즈 및 위치에 따라 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하고, 그리고 나서 제2 이미지로서 디스플레이(116d) 상에 디스플레이하기 위해 디스플레이(114d) 상에 디스플레이된 이미지의 영역(350)의 줌잉-인된 이미지를 나타내는 제1 이미지 데이터의 프레임 내의 제1 부분으로부터 생성된 제2 이미지 데이터를 제어 디바이스(116)에 다시 전송한다. 도 3c를 참조하여, 예를 들어 M=64이고, N=48이며, 수학식 1 및 수학식 2에 따라 mC=32이고 nC=24임을 가정한다.
비디오가 디스플레이(114d) 상에 디스플레이될 때, AV 전달 디바이스(108)는, 디스플레이(114d) 상에 디스플레이된 비디오 내의 영역(350)에 대응하는 제1 이미지 데이터의 상이한 프레임 내의 제1 부분의 줌잉-인된 버전일 수 있는 업데이트된 제2 이미지 데이터를 제어 디바이스(116)에 계속 전송한다. 이와 마찬가지로, 디스플레이 디바이스(116d)는 확대를 위해 선택된 디스플레이(114d) 상에 디스플레이된 비디오의 영역(350)의 줌잉-인된 비디오를 디스플레이한다. 사용자가 디스플레이(114d)의 좌측 측면 상의 새로운 관심 영역을 자세하게 관찰하고 싶은 경우, 이들은 새로운 관심 영역을 가리키기 위해 카메라(116c)를 좌측으로 향하게(point) 할 것이다. 이 포지션에서 카메라(116c)에 의해 포획된 새로운 이미지에서, 수학식 1 및 수학식 2가 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾도록 사용되는 경우, 디스플레이(114d)는 그것의 원래의 폭(예컨대, 200 픽셀들)의 일부 프랙션(예컨대, 25%)만큼 우측으로 시프팅될 것이다. AV 전달 디바이스(108)는 새로운 이미지를 프로세싱하고, 예를 들어 디스플레이(114d)가 우측으로 50픽셀 이동했다고 결정한다. 디스플레이(114d)가 이미지 내의 200x120 픽셀들의 영역을 점유한다고 결정했다면, AV 전달 디바이스(108)는 이제, 수학식 1 및 수학식 2가 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾도록 사용되는 경우, 줌잉-인된 스트리밍 비디오를 디스플레이 사이즈의 25%만큼 좌측으로 시프트시킨다. 동일한 시나리오에서, 수학식 3 및 수학식 4가 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾도록 사용되는 경우, AV 전달 디바이스(108)는 이제 줌잉-인된 스트리밍 비디오를 디스플레이 사이즈의 25%만큼 우측으로 시프트시킨다.
도 4는 본 발명의 한 예시적인 실시예의 동작을 예시하는 흐름도를 도시한다. 이 예시에서, 간소함을 위해, 영역(350')은 제2 디스플레이(116d)의 전체 스크린인 것으로 가정된다.
도 4에 도시된 바와 같이, 동작은 410에서 시작하며, 여기서 제어 디바이스(116)는 사용자에 의해 선택된 제1 디스플레이(114d) 상의 일부분을 선택한다. 제1 (메인) 디스플레이(114d)는 적어도 하나의 프레임을 포함하는 제1 이미지 데이터(소스 컨텐츠)로부터 생성된 프레임 단위의 이미지들을 디스플레이할 수 있다. 제1 디스플레이(114d) 상의 부분을 선택함에 있어서, 사용자는 {예를 들어, 제어 디바이스(116) 상에서 연관된 어플리케이션을 개시하고, 터치 스크린 제스쳐를 행함으로써, 그리고/또는 소프트 또는 실제 키를 누름으로써와 같은} 줌잉-인 기능을 활성화시킬 수 있고, 제1 디스플레이 상의 관심 영역(AOI)(350)에 제어 디바이스(116)의 카메라(116c)를 향하게 한다. 줌잉-인 기능이 활성화되고 카메라가 디스플레이(114d)에서 향하게 되는 순서는 상호 교환 가능하다. 제3 이미지 데이터는 카메라(116c)에 의해 포획되고, 제1 디스플레이(114d) 상의 선택된 부분을 표시한다.
단계(420)에서, 제1 디스플레이(114d) 상의 선택된 부분에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분이 결정된다. 이 결정 단계는 AV 전달 디바이스(108)에 의해 수행될 수 있다. 앞서 논의된 바와 같이, AV 전달 디바이스(108)는 제1 디스플레이(114d) 상의 선택된 부분을 표시하는 제3 이미지 데이터로부터 제1 이미지 데이터의 프레임 내의 제1 부분을 결정할 수 있다. 제1 이미지 데이터가 정지 이미지를 나타내는 경우에 보다 더 적절한 한 실시예에서, 제3 이미지 데이터는 제1 디스플레이(114d) 상의 이미지(310)의 일부분(350)을 나타내고, AV 전달 디바이스(108)는 제3 이미지 데이터에 의해 나타내어진 이미지에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분을 찾기 위해 제1 이미지 데이터를 탐색한다. 제1 이미지 데이터가 정지 이미지 또는 움직이는 이미지를 나타내는 경우에 적절한 다른 실시예에서, 제3 이미지 데이터는 제1 디스플레이(114d)의 이미지를 나타내는 제1 부분을 포함하고, AV 전달 디바이스(108)는 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 상대적 포지션 및 제3 이미지 데이터의 제1 부분의 사이즈에 따라 제1 이미지 데이터의 프레임 내의 제1 부분을 결정한다. 예를 들어, 제1 이미지 데이터의 해상도가 AXB 단위들이고, 제3 이미지 데이터의 해상도가 WXH 단위들이라고 가정한다면, AV 전달 디바이스(108)는 제3 이미지 데이터의 제1 부분의 위치를 찾을 수 있으며, 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 중심을 나타내는 제3 이미지 데이터 내의 포지션 (p, q)을 결정할 수 있고; 제1 이미지 데이터의 프레임 내의 제1 부분의 중심을 (a, b)로서 결정할 수 있으며, 여기서 a=(A/W)*p이고, b=(B/H)*q이다. 이러한 예시에서 중심의 포지션은 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 표시한다. 또한 제3 이미지 데이터의 제1 부분의 사이즈가 w 단위들의 폭 및 h 단위들의 깊이를 포함한다고 가정한다면, AV 전달 디바이스(108)는 제1 이미지 데이터의 프레임 내의 제1 부분의 폭 및 깊이를 각각 d 단위들 및 e 단위들로서 결정할 수 있는데, 여기서 d=(A/W)*w이고, e=(B/H)*h이다.
일단 제1 이미지 데이터의 프레임 내의 제1 부분이 결정되었다면, AV 전달 디바이스(108)는 단계(430)에서 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 제2 이미지 데이터를 생성할 수 있다. AV 전달 디바이스(108)는 확대 인자에 따라 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터를 확대시킴으로써 제2 이미지 데이터를 생성할 수 있다. 확대 인자는 제3 이미지 데이터의 제1 부분의 사이즈인 폭 w 및 높이 h를 이용하여 AV 전달 디바이스(108)에 의해 자동으로 도출될 수 있다. 예를 들어, 확대 인자는 제2 디스플레이(116d)의 폭을 채우기 위해 W/w이거나, 또는 제2 디스플레이(116d)의 깊이를 채우기 위해 H/h이다. 제1 이미지 데이터의 프레임 내의 제1 부분의 사이즈가 aXb 단위들이라고 가정하면, 확대 인자는 앞서 논의된 바와 같이, 제2 디스플레이(116d)의 폭을 채우기 위해 W/a로서, 또는 제2 디스플레이의 깊이를 채우기 위해 H/b로서 자동으로 결정될 수 있다. 제2 디스플레이 디바이스(116d) 상에서의 디스플레이는 제1 디스플레이 디바이스(114d) 상의 디스플레이에 영향을 주지 않는다. 예를 들어, 제2 디스플레이 디바이스(116d)는 줌잉될 수 있는 제1 프레임의 일부분을 디스플레이하고 있을 수 있지만, 제1 디스플레이 디바이스는 제1 프레임의 전체 프레임을 계속 디스플레이한다. 따라서, 사용자는 제1 디스플레이 디바이스(114d) 상에서의 제1 프레임의 전체 프레임을 시청할 수 있고, 또한 제2 디스플레이 디바이스(116d) 상에서의 동일 프레임의 줌잉-인 부분을 확인할 수 있다.
그리고 나서, 줌잉-인 기능이 활성화되는 한, 동작은 단계(410)로 되돌아 간다(loop back). 바람직하게도, 단계들(410 내지 440)을 포함하는 루프는, 사용자가 카메라를 움직일 때, 제어 디바이스(116) 상의 줌잉-인된 이미지의 디스플레이가 실시간 또는 근 실시간으로 업데이트되도록 충분한 빈도로 반복된다. 바람직하게도, AV 전달 디바이스(108)는 줌잉-인된 비디오를 나타내는 제2 이미지 데이터를 라이브로 제어 디바이스(116)에 전송한다. 하지만, 관심 영역(350)의 위치는 뒤처질 수 있는 일부 다른 속도(rate)로 업데이트될 수 있다. 따라서, 예를 들어 줌잉-인된 비디오는 제어 디바이스(116) 상에서 30 내지 60 fps로 디스플레이될 수 있는 반면에, 제어 디바이스(116)가 제3 이미지 데이터를 포획하고 이를 AV 전달 디바이스(108)에 송신하는 속도는 5 fps 이상일 수 있다.
도 5는 제어 디바이스(116)에 의해 수행될 수 있는 동작들을 도시한다. 단계(510)에서, 제어 디바이스(116)는 제어 디바이스(116)의 카메라에 의해 포획된 제3 이미지 데이터를 수신하고, 제3 이미지는 적어도 하나의 프레임을 포함하는 제1 이미지 데이터(소스 컨텐츠)로부터 생성된 프레임 단위의 이미지들을 디스플레이하는 제1 디스플레이(114d)의 적어도 일부분을 포함하며, 제3 이미지는 사용자에 의해 선택된 영역(350)에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분의 정보를 도출하도록 사용된다.
단계(520)에서, 제어 디바이스는 제1 이미지의 프레임 내의 제1 부분의 위치를 찾기 위한 정보를 AV 전달 디바이스(108)에 송신한다. 제1 이미지의 프레임 내의 제1 부분의 위치를 찾기 위한 정보는 제3 이미지 데이터 자체일 수 있거나, 또는 제3 이미지 데이터가 그것의 제1 부분에 전체 디스플레이(114d)를 포함하는 경우, 이는 제3 이미지 데이터의 제1 부분의 사이즈 및 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 위치를 포함할 수 있다. 제3 이미지 데이터 자체를 송신하지 않는 장점은 송신 대역폭을 절약한다는 것이다. 정보는 또한 실시예들 모두에 있어서의 제2 디스플레이(116d)의 해상도를 포함할 수 있다. 전체 스크린이 제2 디스플레이(116d)에 사용되지 않는 경우에, 영역(350')의 사이즈가 또한 송신될 것이다.
단계(530)에서, 제어 디바이스(116)는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 생성된 제2 이미지 데이터를 수신한다. 제2 이미지 데이터는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터의 줌잉된 버전일 수 있다. 단계(540)에서, 제어 디바이스(116)는 제2 디스플레이(116d) 상에 제2 이미지 데이터로부터 생성된 제2 이미지를 디스플레이하며, 제1 디스플레이는 제1 이미지 데이터로부터 생성된 프레임 단위의 이미지들을 계속 디스플레이한다.
도 6은 AV 전달 디바이스(108)에서 수행될 수 있는 예시적인 동작들을 도시한다. 단계(610)에서, AV 전달 디바이스(108)는 제1 이미지 데이터로부터 생성된 프레임 단위의 이미지들을 제1 디스플레이 디바이스(114d) 상에 디스플레이한다.
단계(620)에서, AV 전달 디바이스(108)는 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾기 위한 정보를 제어 디바이스(116)로부터 수신한다. 도 5를 참조하여 앞서 논의된 바와 같이, 제어 디바이스는 제1 디스플레이의 적어도 일부분을 포함하는 제3 이미지 데이터를 포획할 수 있다. 제3 이미지 데이터는 제1 디스플레이 디바이스(114d) 상에 디스플레이된 이미지(310)의 일부분을 포함할 수 있거나, 또는 전체 디스플레이(114d)를 포함할 수 있다. 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾기 위한 정보는 제3 이미지 데이터 자체일 수 있거나, 또는 제3 이미지 데이터 내의 제1 디바이스(114d)의 사이즈 및 상대적 위치일 수 있다.
단계(630)에서, AV 전달 디바이스(108)는 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾는다. 위치 정보(locating information)가 제3 이미지 데이터 자체이고 제3 이미지 데이터가 제1 디스플레이 디바이스(114) 상에 디스플레이된 이미지(316)의 일부분(350)을 포함하는 시나리오에서, AV 전달 디바이스(108)는 제3 이미지 데이터에 대응하는 제1 부분에 대한 제1 이미지 데이터를 탐색한다.
제3 이미지 데이터가 제1 디스플레이(116d)의 이미지를 나타내는 제1 부분을 포함하는 경우, AV 전달 디바이스(108)는 제3 이미지 데이터의 해상도 WXH, 제3 이미지 데이터의 제1 부분의 사이즈 wXh, 및 제3 이미지 데이터 내의 제1 부분의 위치를 결정한다. 위치는 임의의 미리 한정된 위치, 예를 들어 중심 위치 (p, q)일 수 있다. 제1 이미지 데이터의 해상도가 AXB이라고 가정하면, AV 전달 디바이스(108)는, 예를 들어 수학식 1, 수학식 2, 수학식 3 및 수학식 4를 사용하여 제1 이미지 데이터의 프레임 내의 제1 부분의 대응 위치를 (a, b)로서 결정한다. 예를 들어, 수학식 3 및 수학식 4가 적용되면, a=(A/W)*p이고, b=(B/H)*q이며, 수학식 1 및 수학식 2가 적용되면, a=(A/W)*(W-p)이고, b=(B/H)*(H-q)이다. 제1 이미지 데이터의 프레임 내의 제1 부분의 폭 d 및 깊이 e는 d=(A/W)*w 및 e=(B/H)*h로서 결정될 수 있다.
제3 이미지 데이터가 전체의 제1 디스플레이(114d)의 이미지를 나타내는 제1 부분을 포함하는 실시예에서, 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾기 위한 정보는 제3 이미지 데이터 자체가 아닐 수 있다. 오히려, 이것은 제3 이미지 데이터 내의 제1 부분의 위치 (p, q), 제3 이미지 데이터의 제1 부분의 사이즈 wXh, 및 제3 이미지 데이터의 해상도 WXH를 포함한다. AV 전달 디바이스(108)는 앞서 논의된 바와 같이, p, q, w, h, W 및 H에 따라 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾을 수 있다. 이러한 실시예는, 예를 들어 제어 디바이스(116)로부터 AV 전달 디바이스(108)로의 무선 링크의 대역폭이 카메라(116c)에 의해 포획된 이미지들의 송신을 지원할 수 없는 구현들, 및/또는 AV 전달 디바이스(108)가 카메라(116c)에 의해 포획된 이미지들 내의 AOI(350)를 탐색하고 AOI(350)의 위치를 찾기에 충분한 프로세싱 전력을 갖지 않는 구현들을 위해 바람직할 수 있다.
추가적인 실시예들에서, 제어 디바이스(116)는 AV 전달 디바이스(108)에 대한 전술한 대역폭 요구사항 및/또는 프로세싱 부담을 감소시키기 위해, 이미지들을 압축 또는 간소화시킴으로써와 같이, 제3 이미지 데이터를 AV 전달 디바이스(108)에 전송하기 이전에, 카메라(116c)에 의해 포획된 제3 이미지 데이터를 사전-프로세싱할 수 있다.
단계(640)에서, AV 전달 디바이스(108)는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 제2 이미지 데이터를 생성한다. 제2 이미지 데이터는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터의 줌잉된 버전일 수 있다. 확대 인자는 저장소(212)에 저장되고, 제2 이미지 데이터를 산출하기 위해 AV 전달 디바이스(108)에 의해 사용된다.
AV 전달 디바이스(108)는 저장소(212)에 또는 메모리(215)에 저장된 셋팅 데이터베이스를 갖는다. 셋팅들은 사용자 인터페이스(222) 또는 제어 디바이스(116)를 사용하여 사용자에 의해 입력된다. 셋팅들은 확대를 위한 셋팅을 포함할 수 있으며, 그 값은 자동일 수 있거나 또는 확대 인자를 표시하는 수일 수 있다. 또 다른 셋팅은 디스플레이(116d)의 전체 스크린일 수 있는 영역(350')의 해상도 WXH를 표시할 수 있다. 자동 셋팅에서, AV 전달 디바이스(108)는 영역(350')의 폭을 채우기 위해 W/w로서 또는 영역(350')의 깊이를 채우기 위해 H/h로서 확대 인자를 계산한다. 제1 이미지 데이터의 해상도 AXB가 제2 디스플레이의 해상도 WXH와 상이하고, 제1 이미지 데이터의 프레임 내의 제1 부분의 사이즈가 aXb인 경우, AV 전달 디바이스(108)는 또한 영역(350')의 폭을 채우기 위해 W/a로서 또는 영역(350')의 깊이를 채우기 위해 H/b로서 확대 인자를 계산할 수 있다.
단계(650)에서, AV 전달 디바이스(108)는 제2 디스플레이(116d) 상에 제2 이미지로서 디스플레이하기 위해 제2 이미지 데이터를 제어 디바이스에 송신한다. 앞서 언급된 바와 같이, 제2 디스플레이 디바이스(116d) 상의 디스플레이는 제1 디스플레이 디바이스(114d) 상의 디스플레이에 영향을 주지 않는다. 예를 들어, 제2 디스플레이 디바이스(116d)는 제1 프레임의 일부분을 디스플레이할 수 있지만, 제1 디스플레이 디바이스는 제1 프레임의 전체 프레임을 계속 디스플레이한다. 따라서, 사용자는 제1 디스플레이 디바이스(114d) 상에서 제1 프레임의 전체 프레임을 시청할 수 있으며, 또한 제2 디스플레이 디바이스(116d) 상에서 동일 프레임의 줌잉-인 부분을 확인할 수 있다.
앞서 언급된 바와 같이, 본 발명은 영역(350')의 사이즈가 제2 디스플레이(116d)의 전체 스크린을 커버한다고 가정한다. 영역(350')이 제2 디스플레이(116d)의 전체 스크린을 커버하지 않는 경우, 영역(350')의 사이즈는 확대 인자를 계산하기 위해 AV 전달 디바이스(108)에 송신될 것이다. 앞서 언급된 바와 같이, 제어 디바이스(116)는 영역(350')의 사이즈를 조정함으로써 제2 이미지 데이터로부터 생성된 제2 디스플레이 상에 디스플레이된 이미지를 더 확대 또는 축소할 수 있다.
언급된 바와 같이, 디스플레이(116d) 상에 디스플레이될 때, 제2 이미지의 해상도는 디스플레이 디바이스(114)의 해상도에 의해 제한을 받지 않지만, 오히려 AV 전달 디바이스(108)에 의해 수신 또는 검색된 신호를 감당(bearing)하는 컨텐츠(제1 이미지 데이터)로부터 달성될 수 있는 해상도에 기초한다. 따라서, 예를 들어 AOI(350)가 20 메가픽셀 이미지의 영역의 5%를 나타내는 경우, 디스플레이(116d) 상에 디스플레이된 제2 이미지 데이터, 즉 AOI(350)에 대응하는 영역(350')의 해상도는, 720p의 텔레비전 모니터에 디스플레이된 AOI(350)의 해상도가 단지 0.05 메가픽셀들일지라도, 바람직하게는 1 메가픽셀들이다.
상기 관점에서, 전술 사항은 단지 본 발명의 원리들을 예시하며, 따라서 본 명세서에 명백히 설명되지 않을지라도, 본 발명의 원리들을 구현하며 그 사상 및 범주 내에 있는 많은 대안의 장치들(arrangements)을 당업자가 안출할 수 있을 것임이 이해될 것이다. 예를 들어, 개별적인 기능 요소들의 문맥에서 예시될지라도, 이들 기능 요소들은 하나 이상의 집적 회로들(ICs)에서 구현될 수 있다. 유사하게도, 개별적인 요소들로서 도시되었을지라도, 요소들의 일부 또는 모두는 저장된-프로그램-제어된 프로세서, 예컨대 디지털 신호 프로세서 또는 일반용 프로세서에서 구현될 수 있으며, 이들은, 예컨대 소프트웨어가 임의의 다양한 적절한 저장 매체에서 구현될 수 있는 하나 이상의 단계들에 대응하는 연관된 소프트웨어를 실행한다. 게다가, 본 발명의 원리들은 다른 것들 중에서도, 개인의 컴퓨팅 시스템을 포함하는 다양한 유형들의 디바이스들 및 시스템들에 적용될 수 있다. 따라서, 예시적인 실시예들에 대한 많은 변경들이 이루어질 수 있으며, 본 발명의 사상 및 범주로부터 이탈하지 않고도 다른 장치들이 안출될 수 있음이 이해될 것이다.
102: 컨텐츠 소스 106: 네트워크
108: AV 전달 디바이스 114: 디스플레이 디바이스
116: 제어 디바이스 202: 입력 신호 수신기
204: 입력 스트림 프로세서 206: 오디오/비디오 프로세서
208: 오디오/비디오 인터페이스 210: 제어기
212: 저장소 215: 메모리
216: 무선 인터페이스 222: 사용자 인터페이스

Claims (36)

  1. 방법으로서,
    제2 디스플레이(116d)를 구비하는 제어 디바이스(116)를 사용하여 제1 디스플레이(114d) 상의 일부분을 선택하는 단계로서, 제1 디스플레이는 적어도 하나의 프레임을 포함하는 제1 이미지 데이터로부터 생성된 프레임 단위의 이미지들을 디스플레이하는, 제1 디스플레이(114d) 상의 일부분을 선택하는 단계와;
    제1 디스플레이 상의 선택된 부분에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하는 단계(420)와;
    제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 제2 이미지 데이터를 생성하는 단계(430)와;
    제2 디스플레이 상의 제2 이미지로서 디스플레이(480)하기 위해 제2 이미지 데이터를 제어 디바이스(116)에 제공하는 단계(440)를
    포함하는, 방법.
  2. 제1항에 있어서, 선택하는 단계는 제어 디바이스(116)의 카메라(116c)로부터 제3 이미지 데이터를 수신하는 단계를 포함하며, 제3 이미지 데이터의 제1 부분은 제1 디스플레이(114d)의 이미지를 나타내고, 결정하는 단계는 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 상대적 포지션 및 제3 이미지 데이터의 제1 부분의 사이즈에 따라 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하는 단계를 포함하는, 방법.
  3. 제2항에 있어서, 상기 제1 이미지 데이터의 해상도는 AXB 단위들(units)이고, 제3 이미지 데이터의 해상도는 WXH 단위들이고, 상기 방법은:
    제3 이미지 데이터의 제1 부분의 위치를 찾고(locate), 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 중심을 나타내는 제3 이미지 데이터 내의 포지션 (p, q)를 결정하는, 위치를 찾고 결정하는 단계와;
    a=(A/W)*p이고, b=(B/H)*q인, 제1 이미지 데이터의 프레임 내의 제1 부분의 중심을 (a, b)로서 결정하는 단계를
    더 포함하는, 방법.
  4. 제3항에 있어서, 제3 이미지 데이터의 제1 부분의 사이즈는 w 단위들의 폭 및 h 단위들의 깊이를 포함하고, 결정하는 단계는 제1 이미지 데이터의 프레임 내의 제1 부분의 폭 및 깊이를 각각 d 단위들 및 e 단위들로서 결정하는 단계를 더 포함하며, d=(A/W)*w이고, e=(B/H)*h인, 방법.
  5. 제4항에 있어서, 제2 이미지 데이터를 생성하는 단계는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터를 확대 인자(magnification factor)에 따라 확대하는 단계를 포함하는, 방법.
  6. 제5항에 있어서,
    w 및 h 중 하나로부터 확대 인자를 결정하는 단계를
    더 포함하는, 방법.
  7. 제6항에 있어서, 확대 인자는 W/w와 동일한, 방법.
  8. 제6항에 있어서, 확대 인자는 H/h와 동일한, 방법.
  9. 제1항에 있어서, 제1 이미지 데이터는 정지 이미지(still image) 또는 비디오 프레임을 나타내는, 방법.
  10. 제1항에 있어서, 선택하는 단계는 제어 디바이스(116)의 카메라(116c)로부터 제3 이미지 데이터를 수신하는 단계를 포함하며, 제3 이미지 데이터는 제1 디스플레이(114d) 상에 디스플레이된 이미지의 일부분을 나타내며, 결정하는 단계는 제3 이미지 데이터에 대응하는 일부분에 대한 제1 이미지 데이터를 탐색하는 단계를 포함하는, 방법.
  11. 비디오 수신기(108)로서,
    제어기(210)와;
    적어도 하나의 프레임을 나타내는 제1 이미지 데이터를 저장하기 위한 메모리(215)로서, 메모리는 논리(logic)를 저장하되, 논리는, 실행될 때, 적어도
    제1 디스플레이(114d)로 하여금 제1 이미지 데이터에 의해 나타내어진 프레임 단위의 이미지들을 디스플레이하게 하는 것과;
    제1 디스플레이 상의 일부분(350)을 선택하도록 제어 디바이스(116)와 상호 작용하는 것과;
    선택된 부분에 대응하는 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하는 것과;
    제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 제2 이미지 데이터를 생성하는 것과;
    제2 디스플레이(116d) 상의 제2 이미지로서 디스플레이(480)하기 위해 제2 이미지 데이터를 제어 디바이스(116)에 제공하는 것을
    수행하도록, 제어기(210)가 비디오 수신기를 제어하게 하는, 메모리를
    포함하는, 비디오 수신기.
  12. 제11항에 있어서, 비디오 수신기(108)는:
    제어 디바이스(116)의 카메라(116c)로부터 제3 이미지 데이터를 수신하되, 제3 이미지 데이터의 제1 부분은 제1 디스플레이(114d)의 이미지를 나타내고, 결정 행위는 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 상대적 포지션 및 제3 이미지 데이터의 제1 부분의 사이즈에 따라 제1 이미지 데이터의 프레임 내의 제1 부분을 결정하는 것을 포함하는, 비디오 수신기.
  13. 제12항에 있어서, 상기 제1 이미지 데이터의 해상도는 AXB 단위들이고, 제3 이미지 데이터의 해상도는 WXH 단위들이고, 비디오 수신기(108)는:
    제2 이미지 데이터의 제2 부분의 위치를 찾고, 제2 이미지 데이터의 제2 부분의 중심을 나타내는 제2 이미지 데이터 내의 포지션 (p, q)을 결정하고;
    a=(A/W)*p이고, b=(B/H)*q인, 제1 이미지 데이터의 프레임 내의 제1 부분의 중심을 (a, b)로서 결정하는, 비디오 수신기.
  14. 제13항에 있어서, 제3 이미지 데이터의 제1 부분의 사이즈는 w 단위들의 폭 및 h 단위들의 깊이를 포함하고, 비디오 수신기(108)는:
    제1 이미지 데이터의 프레임 내의 제1 부분의 폭 및 깊이를 각각 d 단위들 및 e 단위들로서 결정하되, d=(A/W)*w이고, e=(B/H)*h인, 비디오 수신기.
  15. 제14항에 있어서, 비디오 수신기(108)는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터를 확대 인자에 따라 줌잉(zooming)함으로써 제2 이미지 데이터를 생성하는, 비디오 수신기.
  16. 제15항에 있어서, 비디오 수신기(108)는 w 및 h 중 하나로부터 확대 인자를 결정하는, 비디오 수신기.
  17. 제16항에 있어서, 확대 인자는 W/w와 동일한, 비디오 수신기.
  18. 제16항에 있어서, 확대 인자는 H/h와 동일한, 비디오 수신기.
  19. 제11항에 있어서, 제1 이미지 데이터는 정지 이미지 또는 비디오 프레임을 나타내는, 비디오 수신기.
  20. 제1 디스플레이 상의 제1 이미지 데이터로부터 생성된 프레임 단위의 디스플레이 이미지들 및 적어도 하나의 프레임을 포함하는 제1 이미지 데이터를 수신하는 비디오 수신기를 제어하는 제어 디바이스에서 사용된 방법으로서,
    제어 디바이스의 카메라에 의해 포획된 제3 이미지 데이터를 수신하는 단계(510)로서, 제3 이미지는 적어도 하나의 프레임을 포함하는 제1 이미지 데이터로부터 생성된 프레임 단위의 이미지들을 디스플레이하는 제1 디스플레이의 적어도 일부분을 포함하며, 제3 이미지는 사용자에 의해 선택된 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾도록 사용되는, 제3 이미지 데이터를 수신하는 단계(510)와;
    제1 이미지의 프레임 내의 제1 부분의 위치를 찾기 위한 정보를 비디오 수신기에 송신하는 단계(520)와;
    제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 생성된 제2 이미지 데이터를 수신하는 단계(530)와;
    제2 디스플레이(116d) 상에서 제2 이미지 데이터를 나타내는 제2 이미지를 디스플레이하는 단계(480)로서, 제1 디스플레이는 제1 이미지 데이터(540)로부터 생성된 프레임 단위의 이미지들을 계속 디스플레이하는, 제2 이미지를 디스플레이하는 단계(480)를
    포함하는, 제어 디바이스에서 사용된 방법.
  21. 제20항에 있어서, 제3 이미지 데이터의 제1 부분은 제1 디스플레이의 이미지를 나타내고, 제1 이미지의 프레임 내의 제1 부분의 위치를 찾기 위한 정보는 제3 이미지 데이터의 제1 부분의 사이즈 및 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 위치를 포함하는, 제어 디바이스에서 사용된 방법.
  22. 제21항에 있어서, 제1 이미지의 프레임 내의 제1 부분의 위치를 찾기 위한 정보는 제2 디스플레이의 해상도를 더 포함하는, 제어 디바이스에서 사용된 방법.
  23. 제20항에 있어서, 제1 이미지의 프레임 내의 제1 부분의 위치를 찾기 위한 정보는 제3 이미지 데이터인, 제어 디바이스에서 사용된 방법.
  24. 제20항에 있어서, 제2 이미지 데이터는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터의 줌잉된 버전을 나타내는, 제어 디바이스에서 사용된 방법.
  25. 제20항에 있어서, 제1 이미지 데이터는 정지 이미지 또는 비디오 프레임을 나타내는, 제어 디바이스에서 사용된 방법.
  26. 방법으로서,
    제1 이미지 데이터로부터 생성된 프레임 단위의 이미지들을 제1 디스플레이 디바이스 상에 디스플레이하는 단계(610)와;
    제1 이미지의 데이터의 프레임 내의 제1 부분의 위치를 찾기 위한 정보를 제어 디바이스로부터 수신하는 단계(620)와;
    제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾는 단계(630)와;
    제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터로부터 제2 이미지 데이터를 생성하는 단계(640)와;
    제2 디스플레이 상의 제2 이미지로서 디스플레이하기 위해 제2 이미지 데이터를 제어 디바이스에 송신하는 단계(650)를
    포함하는, 방법.
  27. 제26항에 있어서, 제2 이미지 데이터는 제1 이미지 데이터의 프레임 내의 제1 부분에 대응하는 제1 이미지 데이터의 줌잉된 버전을 나타내는, 방법.
  28. 제27항에 있어서, 줌잉된 버전은 확대 인자를 통해 제1 이미지 데이터의 프레임 내의 제1 부분을 확대함으로써 생성되는, 방법.
  29. 제28항에 있어서, 확대 인자는 메모리에 저장되는, 방법.
  30. 제26항에 있어서, 제3 이미지 데이터는 제어 디바이스의 카메라에 의해 포획되고, 제3 이미지는 제1 디스플레이의 적어도 일부분을 포함하며, 제1 이미지 데이터의 프레임 내의 제1 부분의 위치를 찾기 위한 정보는, wXh 단위들인, 제3 이미지 데이터의 제1 부분의 사이즈 및 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 위치를 포함하는, 방법.
  31. 제30항에 있어서, 제3 이미지 데이터 내의 제3 이미지 데이터의 제1 부분의 위치는 제3 이미지 데이터의 부분의 (p, q)인 중심 포지션이고, 제1 이미지 데이터의 해상도는 AXB 단위들이고, 상기 방법은 WXH 단위들인 제3 이미지 데이터의 해상도를 결정하는 단계와, 제1 이미지 데이터의 프레임 내의 제1 부분의 중심을 (a, b)로서 결정하는 단계를 더 포함하며, a=(A/W)*p이고, b=(B/H)*q인, 방법.
  32. 제31항에 있어서, 제1 이미지 데이터의 프레임 내의 제1 부분의 폭 및 깊이를 각각 d 단위들 및 e 단위들로서 결정하는 단계를 더 포함하며, d=(A/W)*w이고, e=(B/H)*h인, 방법.
  33. 제32항에 있어서, 확대 인자는 상기 사이즈에 따라 결정되는, 방법.
  34. 제33항에 있어서, 확대 인자는 W/w로서 계산되는, 방법.
  35. 제33항에 있어서, 확대 인자는 H/h로서 계산되는, 방법.
  36. 제26항에 있어서, 제1 이미지 데이터는 정지 이미지 또는 비디오 프레임을 나타내는, 방법.
KR1020157012007A 2012-11-09 2012-11-09 핸드헬드 디스플레이 줌 피쳐 KR20150084005A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020157012007A KR20150084005A (ko) 2012-11-09 2012-11-09 핸드헬드 디스플레이 줌 피쳐

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020157012007A KR20150084005A (ko) 2012-11-09 2012-11-09 핸드헬드 디스플레이 줌 피쳐

Publications (1)

Publication Number Publication Date
KR20150084005A true KR20150084005A (ko) 2015-07-21

Family

ID=53873708

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157012007A KR20150084005A (ko) 2012-11-09 2012-11-09 핸드헬드 디스플레이 줌 피쳐

Country Status (1)

Country Link
KR (1) KR20150084005A (ko)

Similar Documents

Publication Publication Date Title
US9747723B2 (en) Augmented reality for video system
US20150036050A1 (en) Television control apparatus and associated method
JP6622650B2 (ja) 情報処理装置及びその制御方法、撮影システム
KR20130037998A (ko) 디스플레이 장치 및 그 디스플레이 방법
KR102147214B1 (ko) 영상표시장치, 및 그 동작방법
CN109661809A (zh) 显示设备
JP2010093783A (ja) 撮像装置および撮像システム
US20070200953A1 (en) Method and Device for Displaying the Content of a Region of Interest within a Video Image
US9635425B2 (en) Handheld display zoom feature
KR101311463B1 (ko) 원격 영상정보 제공시스템
KR102187745B1 (ko) 영상제공장치, 및 그 동작방법
US20190286318A1 (en) Display device
KR101648449B1 (ko) 디스플레이 장치에서 영상 처리 방법 및 디스플레이 장치
KR101107366B1 (ko) 소비자 디지털 비디오 레코딩 장치에서 가상 랜더링으로부터의 복귀에 대한 비디오 화면 매칭
CN111445427B (zh) 视频图像处理方法以及显示设备
KR20150084005A (ko) 핸드헬드 디스플레이 줌 피쳐
KR102246904B1 (ko) 영상표시장치
KR20210052882A (ko) 영상 표시 장치 및 그 동작방법
KR20100046398A (ko) 영상표시기기 및 그의 영상 확대 방법
EP4221240A1 (en) Image display apparatus
CN102193768A (zh) 用于媒体集成和显示的系统、方法和设备
JP2005217902A (ja) 画像処理装置および画像処理方法
KR20230116662A (ko) 영상표시장치
WO2013080245A1 (ja) 映像処理装置および映像処理方法
KR20130082260A (ko) 적어도 하나 이상의 기능을 수행하는 컴퓨팅 디바이스 및 컨트롤 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application