KR20120015652A - Method for operating an apparatus for displaying image - Google Patents

Method for operating an apparatus for displaying image Download PDF

Info

Publication number
KR20120015652A
KR20120015652A KR1020100077927A KR20100077927A KR20120015652A KR 20120015652 A KR20120015652 A KR 20120015652A KR 1020100077927 A KR1020100077927 A KR 1020100077927A KR 20100077927 A KR20100077927 A KR 20100077927A KR 20120015652 A KR20120015652 A KR 20120015652A
Authority
KR
South Korea
Prior art keywords
image
signal
display
displayed
text
Prior art date
Application number
KR1020100077927A
Other languages
Korean (ko)
Inventor
이강섭
구상준
김한수
김운영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100077927A priority Critical patent/KR20120015652A/en
Priority to EP11176388.4A priority patent/EP2418866A3/en
Priority to US13/197,474 priority patent/US20120056875A1/en
Priority to CN2011103408517A priority patent/CN102378033A/en
Publication of KR20120015652A publication Critical patent/KR20120015652A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Abstract

PURPOSE: A method for operating an image display device is provided to optimally arrange and switch screens for using content, thereby increasing convenience of a user. CONSTITUTION: A user accesses at least one SNS(S1410). Data including texts or images uploaded in the accessed SNS are received(S1420). A 3D map image is displayed on a horizontally arranged display(S1430). An object including texts or images is displayed on the 3D map image based on location information of a member who uploads the data(S1440).

Description

영상표시장치의 동작 방법{Method for operating an apparatus for displaying image}Method for operating an apparatus for displaying image}

본 발명은 영상표시장치 및 그 동작 방법에 관한 것이며, 더욱 상세하게는 컨텐츠를 다양하고 편리하게 이용할 수 있어, 사용자 편의성이 향상되는 영상표시장치 및 그 동작 방법에 관한 것이다.The present invention relates to an image display apparatus and an operation method thereof, and more particularly, to an image display apparatus and an operation method thereof in which various contents can be conveniently used, thereby improving user convenience.

영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 또한, 영상표시장치는 방송국에서 송출되는 방송 신호 중 사용자가 선택한 방송을 디스플레이에 표시할 수 있다. 현재 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다. The image display device is a device having a function of displaying an image that a user can watch. In addition, the image display apparatus may display a broadcast selected by the user among the broadcast signals transmitted from the broadcasting station on the display. Currently, the trend is shifting from analog broadcasting to digital broadcasting worldwide.

이러한 디지털 방송은 디지털 영상 및 음성 신호를 송출하여, 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송의 시행에 따라, 양방향 서비스가 가능해지고 있다.Such digital broadcasts transmit digital video and audio signals, and are more resistant to external noise than analog broadcasts, and thus have low data loss, are advantageous for error correction, provide high resolution, and provide a clear picture. In addition, with the implementation of digital broadcasting, interactive services have become possible.

또한, 영상표시장치의 기능 및 컨텐츠가 점점 다양화되고 있는 추세에 따라서, 영상표시장치의 각종 기능 및 컨텐츠를 효율적으로 활용하기 위하여 최적화된 화면 배치, 화면 전환 방법, 컨텐츠 이용 방법 등에 대해 연구되고 있다.In addition, as the functions and contents of the image display apparatus are diversified, the screen arrangement, the screen switching method, the contents usage method, etc., which are optimized for efficiently utilizing various functions and contents of the image display apparatus, have been studied. .

또한. 최근에는 입체 영상에 대한 다양한 연구가 진행되고 있으며, 컴퓨터 그래픽에서 뿐만 아니라 다른 다양한 환경 및 기술에서도 입체 영상 기술이 점점 더 보편화되고 실용화되고 있다.Also. Recently, various researches on stereoscopic images have been conducted, and stereoscopic imaging techniques are becoming more and more common and practical in computer graphics as well as in various other environments and technologies.

따라서, 본 발명의 목적은, 컨텐츠 이용에 최적화된 화면 배치, 화면 전환을 구현함으로써, 사용자 편의성이 향상될 수 있는 영상표시장치 및 그 동작 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide an image display apparatus and an operation method thereof, by which a user's convenience can be improved by implementing screen layout and screen switching optimized for content use.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작 방법은 적어도 하나의 소셜 네트워크 서비스(SNS)에 접속하는 단계, 상기 접속된 소셜 네트워크 서비스에 업로드된 텍스트 또는 영상을 포함하는 데이터를 수신하는 단계, 3차원(3D) 지도 영상을 수평으로 배치된 디스플레이에 표시하는 단계와 상기 데이터를 업로드한 회원(member)의 위치 정보에 기초하여, 상기 텍스트 또는 영상을 포함하는 오브젝트를 상기 3차원(3D) 지도 영상에 표시하는 단계를 포함한다.In accordance with another aspect of the present invention, there is provided a method of operating an image display apparatus, the method including accessing at least one social network service (SNS), data including text or an image uploaded to the connected social network service. Receiving an object, displaying a three-dimensional (3D) map image on a horizontally arranged display, and displaying an object including the text or image based on location information of a member uploading the data. And displaying on the 3D map image.

상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 영상표시장치의 동작 방법은 상기 데이터를 업로드한 회원(member)의 위치 정보와 기설정된 우선순위에 기초하여, 상기 텍스트 또는 영상을 포함하는 오브젝트를, 3차원(3D) 지도 영상의 상이한 위치에 상이한 깊이(depth)를 가지는 3D 영상으로 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating an image display device, the object including the text or the image based on location information of a member uploading the data and a predetermined priority. And displaying the 3D image having different depths at different positions of the 3D map image.

상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 영상표시장치의 동작 방법은 상기 데이터를 업로드한 회원(member)의 위치 정보에 기초하여, 상기 3차원(3D) 지도 영상에 상기 텍스트 또는 영상을 포함하는 오브젝트를 표시할 위치를 결정하고, 상기 표시하는 위치에 따라 상기 오브젝트의 기울기(slope)를 상이하게 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of operating an image display apparatus based on location information of a member uploading the data, wherein the text or image is displayed on the 3D map image. Determining a position to display an object including a, and displaying the slope of the object differently according to the displayed position.

본 발명에 따르면, 컨텐츠, 특히 3D 영상 컨텐츠를 다양하고 편리하게 이용할 수 있어, 사용자 편의성이 향상될 수 있다. 특히 소셜 네트워크 서비스(SNS)를 더욱 편리하게 이용할 수 있다.According to the present invention, various contents, particularly 3D image contents, can be conveniently and conveniently used, and user convenience can be improved. In particular, social network services (SNS) can be used more conveniently.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 2는 도 1의 제어부의 내부 블록도이다.
도 3은 3D 영상의 다양한 포맷을 보여주는 도면이다.
도 4는 도 3의 포맷에 따라 3D 시청장치의 동작을 보여주는 도면이다.
도 5는 본 발명의 실시예에 따른 3D 영상 신호의 다양한 스케일링 방식을 나타낸 도면이다.
도 6은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이다.
도 7은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다.
도 8은 도 1의 영상표시장치의 디스플레이 배치의 일예를 도시한 도면이다.
도 9는 본 발명의 실시예에 따른 3D 시청장치와 영상표시장치를 도시한 도면이다.
도 10은 도 9의 3D 시청장치와 영상표시장치의 내부 블록도이다.
도 11a 내지 도 13b는 본 발명의 실시예에 따른 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
도 14는 본 발명의 일실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이다.
도 15 내지 도 20은 본 발명의 일실시예에 따른 영상표시장치의 동작 방법을 설명하기 위해 참조되는 도면이다.
1 is a block diagram illustrating an image display apparatus according to an exemplary embodiment of the present invention.
FIG. 2 is an internal block diagram of the controller of FIG. 1.
3 is a diagram illustrating various formats of a 3D image.
4 is a diagram illustrating an operation of a 3D viewing apparatus according to the format of FIG. 3.
5 is a diagram illustrating various scaling methods of a 3D video signal according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an image formed by a left eye image and a right eye image.
FIG. 7 illustrates a depth of a 3D image according to a distance between a left eye image and a right eye image.
FIG. 8 is a diagram illustrating an example of a display arrangement of the image display device of FIG. 1.
9 is a diagram illustrating a 3D viewing apparatus and an image display apparatus according to an exemplary embodiment of the present invention.
FIG. 10 is a block diagram illustrating the 3D viewing apparatus and the image display apparatus of FIG. 9.
11A to 13B are views referred to for describing various examples of a method of operating an image display apparatus according to an exemplary embodiment of the present invention.
14 is a flowchart illustrating a method of operating an image display apparatus according to an embodiment of the present invention.
15 to 20 are diagrams for describing an operating method of an image display apparatus according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. Hereinafter, the present invention will be described in more detail with reference to the drawings.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffixes "module" and "unit" for components used in the following description are merely given in consideration of ease of preparation of the present specification, and do not impart any particular meaning or role by themselves. Therefore, the "module" and "unit" may be used interchangeably.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다. 1 is a block diagram illustrating an image display apparatus according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너(110), 복조부(120), 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 센서부(160), 제어부(170), 디스플레이(180), 오디오 출력부(185), 촬영부(190), 및 3D 시청장치(195)를 포함할 수 있다.Referring to FIG. 1, the image display apparatus 100 according to an exemplary embodiment of the present invention includes a tuner 110, a demodulator 120, an external device interface unit 130, a network interface unit 135, and a storage unit ( 140, a user input interface unit 150, a sensor unit 160, a control unit 170, a display 180, an audio output unit 185, a photographing unit 190, and a 3D viewing apparatus 195. Can be.

튜너(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The tuner 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through an antenna. Also, the selected RF broadcast signal is converted into an intermediate frequency signal, a baseband image, or a voice signal.

예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the selected RF broadcast signal is an analog broadcast signal, it is converted into an analog baseband image or voice signal (CVBS / SIF). That is, the tuner 110 may process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal CVBS / SIF output from the tuner 110 may be directly input to the controller 170.

또한, 튜너(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. Also, the tuner 110 can receive RF carrier signals of a single carrier according to an Advanced Television System Committee (ATSC) scheme or RF carriers of a plurality of carriers according to a DVB (Digital Video Broadcasting) scheme.

한편, 튜너(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. Meanwhile, the tuner 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel memory function among RF broadcast signals received through an antenna and converts them into intermediate frequency signals or baseband video or audio signals. I can convert it.

복조부(120)는 튜너(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(7-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.For example, when the digital IF signal output from the tuner 110 is an ATSC scheme, the demodulator 120 performs 7-VSB (7-Vestigal Side Band) demodulation. Also, the demodulation unit 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, and a reed solomon decoder to perform trellis decoding, deinterleaving, Solomon decoding can be performed.

예를 들어, 튜너(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For example, when the digital IF signal output from the tuner 110 is a DVB scheme, the demodulator 120 performs COFDMA (Coded Orthogonal Frequency Division Modulation) demodulation. Also, the demodulation unit 120 may perform channel decoding. For this, the demodulator 120 may include a convolution decoder, a deinterleaver, and a reed-solomon decoder to perform convolutional decoding, deinterleaving, and reed solomon decoding.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal. For example, the stream signal may be an MPEG-2 TS (Transport Stream) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, or the like. Specifically, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.On the other hand, the demodulator 120 described above can be provided separately according to the ATSC system and the DVB system. That is, it can be provided as an ATSC demodulation unit and a DVB demodulation unit.

복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다. The stream signal output from the demodulator 120 may be input to the controller 170. After performing demultiplexing, image / audio signal processing, and the like, the controller 170 outputs an image to the display 180 and outputs audio to the audio output unit 185.

외부장치 인터페이스부(130)는, 접속된 외부 장치(190)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 may transmit or receive data with the connected external device 190. To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(130)는 접속된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 may be connected to an external device such as a digital versatile disk (DVD), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or the like by wire / wireless. The external device interface unit 130 transmits an image, audio, or data signal input from the outside to the controller 170 of the image display device 100 through the connected external device. In addition, the controller 170 may output an image, audio, or data signal processed by the controller 170 to a connected external device. To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다. The A / V input / output unit includes a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), and a DVI so that video and audio signals of an external device can be input to the video display device 100. (Digital Visual Interface) terminal, HDMI (High Definition Multimedia Interface) terminal, RGB terminal, D-SUB terminal and the like.

무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다. The wireless communication unit can perform short-range wireless communication with other electronic devices. The image display apparatus 100 may communicate with Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Digital Living Network Alliance (DLNA). Depending on the specification, it can be networked with other electronic devices.

또한, 외부장치 인터페이스부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다. In addition, the external device interface unit 130 may be connected through at least one of the various set top boxes and the various terminals described above to perform input / output operations with the set top box.

한편, 외부장치 인터페이스부(130)는, 3D 시청장치(195)와 데이터를 송수신할 수 있다. The external device interface unit 130 may transmit / receive data with the 3D viewing device 195.

네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(135)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다. The network interface unit 135 provides an interface for connecting the image display apparatus 100 to a wired / wireless network including an internet network. The network interface unit 135 may include an Ethernet terminal for connection with a wired network, and for connection with a wireless network, a WLAN (Wi-Fi) or a Wibro (Wireless). Broadband, Wimax (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA) communication standards, and the like may be used.

네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 인터넷, 컨텐츠 제공자 등으로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다. The network interface unit 135 may receive content or data provided by the Internet or a content provider or a network operator through a network. That is, content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from the Internet, a content provider, etc. may be received through a network. In addition, the update information and the update file of the firmware provided by the network operator can be received. It may also transmit data to the Internet or content provider or network operator.

또한, 네트워크 인터페이스부(135)는, 예를 들어, IP(internet Protocol) TV와 접속되어, 양방향 통신이 가능하도록, IPTV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 수신하여 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IPTV용 셋탑 박스로 전달할 수 있다.In addition, the network interface unit 135 is connected to, for example, an Internet Protocol (IP) TV, and receives the video, audio, or data signals processed in the set-top box for the IPTV to enable bidirectional communication. The signal processed by the controller 170 may be transmitted to the set-top box for the IPTV.

한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.Meanwhile, the above-described IPTV may mean ADSL-TV, VDSL-TV, FTTH-TV, etc. according to the type of transmission network, and include TV over DSL, Video over DSL, TV overIP (TVIP), and Broadband TV ( BTV) and the like. In addition, IPTV may also mean an Internet TV capable of accessing the Internet, or a full browsing TV.

저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage 140 may store a program for processing and controlling each signal in the controller 170, or may store a signal-processed video, audio, or data signal.

또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input to the external device interface unit 130. In addition, the storage 140 may store information on a predetermined broadcast channel through a channel storage function such as a channel map.

저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.The storage unit 140 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), It may include at least one type of storage medium such as RAM, ROM (EEPROM, etc.). The image display apparatus 100 may reproduce and provide a file (video file, still image file, music file, document file, etc.) stored in the storage 140 to a user.

도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다. 1 illustrates an embodiment in which the storage unit 140 is provided separately from the control unit 170, but the scope of the present invention is not limited thereto. The storage 140 may be included in the controller 170.

사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user input interface unit 150 transmits a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user.

예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. For example, the user input interface unit 150 may be powered on / off, channel selection, and screen from the remote controller 200 according to various communication methods such as a radio frequency (RF) communication method and an infrared (IR) communication method. A user input signal such as a setting may be received, or a signal from the controller 170 may be transmitted to the remote controller 200.

또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다.In addition, for example, the user input interface unit 150 may transmit a user input signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.

센서부(160)는, 사용자의 위치 또는 사용자의 제스처 또는 3D 시청 장치(195)의 위치를 감지할 수 있다. 이를 위해, 센서부(160)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서, 자이로 센서 등을 포함할 수 있다. The sensor unit 160 may detect a location of a user, a gesture of the user, or a location of the 3D viewing device 195. To this end, the sensor unit 160 may include a touch sensor, a voice sensor, a position sensor, an operation sensor, a gyro sensor, and the like.

감지된 사용자의 위치, 사용자의 제스처 또는 3D 시청 장치(195)의 위치 신호는 제어부(170)에 입력될 수 있다. 또는, 도면과 달리, 사용자입력 인터페이스부(150)를 통해, 제어부(170)에 입력될 수도 있다.The detected user's location, the user's gesture or the location signal of the 3D viewing device 195 may be input to the controller 170. Alternatively, unlike the drawing, it may be input to the controller 170 through the user input interface unit 150.

제어부(170)는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The controller 170 demultiplexes the input stream or processes the demultiplexed signals through the tuner 110, the demodulator 120, or the external device interface unit 130, and outputs a video or audio signal. You can create and output.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The image signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the image signal. In addition, the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The voice signal processed by the controller 170 may be sound output to the audio output unit 185. In addition, the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 2를 참조하여 후술한다.Although not shown in FIG. 1, the controller 170 may include a demultiplexer, an image processor, and the like. This will be described later with reference to FIG. 2.

그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. In addition, the controller 170 may control overall operations of the image display apparatus 100. For example, the controller 170 may control the tuner 110 to control the tuner 110 to select an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. In addition, the controller 170 may control the image display apparatus 100 by a user command or an internal program input through the user input interface unit 150.

예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다. For example, the controller 170 controls the tuner 110 to input a signal of a selected channel according to a predetermined channel selection command received through the user input interface unit 150. Then, video, audio, or data signals of the selected channel are processed. The controller 170 may output the channel information selected by the user together with the processed video or audio signal through the display 180 or the audio output unit 185.

다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(130)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의 영상 신호 또는 음성 신호가 디스플레이(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다. As another example, the controller 170 may, for example, receive an external device image playback command received through the user input interface unit 150, from an external device input through the external device interface unit 130, for example, a camera or a camcorder. The video signal or the audio signal may be output through the display 180 or the audio output unit 185.

한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 예를 들어, 튜너(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(130)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부(135)를 통해 입력되는 영상 또는 저장부(140)에 저장된 영상을 디스플레이(180)에 표시하도록 제어할 수 있다. The controller 170 may control the display 180 to display an image. For example, a broadcast image input through the tuner 110, an external input image input through the external device interface unit 130, or an image input through the network interface unit 135 or an image stored in the storage unit 140. May be controlled to be displayed on the display 180.

이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.In this case, the image displayed on the display 180 may be a still image or a video, and may be a 2D image or a 3D image.

한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 중에, 소정 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 한다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다. Meanwhile, the controller 170 may generate and display a 3D object with respect to a predetermined object in the image displayed on the display 180. For example, the object may be at least one of a connected web screen (newspaper, magazine, etc.), an EPG (Electronic Program Guide), various menus, widgets, icons, still images, videos, and text.

이러한 3D 오브젝트는, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다. Such a 3D object may be processed to have a different depth than the image displayed on the display 180. [ Preferably, the 3D object may be processed to appear protruding from the image displayed on the display 180.

한편, 제어부(170)는, 촬영부(190)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식한다. 예를 들어, 사용자와 영상표시장치(100)간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.On the other hand, the controller 170 recognizes the position of the user based on the image photographed from the photographing unit 190. For example, the distance (z-axis coordinate) between the user and the image display apparatus 100 may be determined. In addition, the x-axis coordinates and the y-axis coordinates in the display 180 corresponding to the user position may be determined.

한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다. 이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다. On the other hand, although not shown in the figure, it may be further provided with a channel browsing processing unit for generating a thumbnail image corresponding to the channel signal or the external input signal. The channel browsing processor may receive a stream signal TS output from the demodulator 120 or a stream signal output from the external device interface 130, extract a video from the input stream signal, and generate a thumbnail image. Can be. The generated thumbnail image may be input as it is or encoded to the controller 170. In addition, the generated thumbnail image may be encoded in a stream form and input to the controller 170. The controller 170 may display a thumbnail list including a plurality of thumbnail images on the display 180 by using the input thumbnail image. In this case, the thumbnail list may be displayed in a simple viewing manner displayed in a partial region while a predetermined image is displayed on the display 180 or in an overall viewing manner displayed in most regions of the display 180. The thumbnail images in the thumbnail list may be updated sequentially.

디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. The display 180 converts an image signal, a data signal, an OSD signal, a control signal, or an image signal, a data signal, a control signal received from the external device interface unit 130 processed by the controller 170, and generates a driving signal. Create

디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 특히, 본 발명의 실시예에 따라, 3차원 디스플레이(3D display)가 가능한 것이 바람직하다. The display 180 may be a PDP, an LCD, an OLED, a flexible display, or the like, and in particular, according to an embodiment of the present invention, it is preferable that a 3D display is possible.

3차원 영상 시청을 위해 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.The display 180 may be divided into an additional display method and a single display method for viewing a 3D image.

단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경(glass) 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다. The independent display method may implement a 3D image by the display 180 alone without additional display, for example, glasses, and the like, for example, a lenticular method, a parallax barrier, or the like. Various methods can be applied.

한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 3D 시청장치(195)로서 추가 디스플레이를 사용하여, 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. 또한, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 다시 나뉠 수 있다. 한편, 헤드 마운트 디스플레이 타입에서도 패시브 방식과 액티브 방식으로 나뉠 수 있다.Meanwhile, the additional display method may implement 3D images by using the additional display as the 3D viewing apparatus 195 in addition to the display 180. For example, various methods such as a head mounted display (HMD) type and glasses type may be used. Can be applied. In addition, the spectacles type can be further divided into a passive scheme such as a polarized glasses type and an active scheme such as a shutter glass type. On the other hand, the head mounted display type can be divided into passive and active methods.

본 발명의 실시에에서는, 입체 영상 시청을 위해, 3D 시청장치(195)로 3D용 글래스를 중심으로 기술한다. 3D용 글래스(195)는, 패시브 방식의 편광 글래스 또는 액티브 방식의 셔트 글래스를 포함할 수 있으며, 상술한 헤드 마운트 타입도 포함하는 개념으로 기술된다. In the embodiment of the present invention, the 3D viewing apparatus 195 describes the 3D glasses mainly for the 3D image viewing. The 3D glass 195 may include a passive polarized glass or an active shutter glass, and is described with the concept of including the aforementioned head mount type.

한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.The display 180 may be configured as a touch screen and used as an input device in addition to the output device.

오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.The audio output unit 185 receives a signal processed by the controller 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs a voice signal. The voice output unit 185 may be implemented by various types of speakers.

촬영부(190)는 사용자를 촬영한다. 촬영부(190)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 촬영부(190)는 디스플레이(180) 상부에 배치될 수 있다. 촬영부(190)에서 촬영된 영상 정보는 제어부(170)에 입력된다. The photographing unit 190 photographs a user. The photographing unit 190 may be implemented by one camera, but is not limited thereto and may be implemented by a plurality of cameras. The photographing unit 190 may be disposed above the display 180. The image information photographed by the photographing unit 190 is input to the controller 170.

제어부(170)는, 촬영부(190)로부터 촬영된 영상, 또는 센서부(160)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수 있다. The controller 170 may detect a user's gesture by combining or respectively combining an image captured by the photographing unit 190 or a detected signal from the sensor unit 160.

원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.The remote control apparatus 200 transmits the user input to the user input interface unit 150. To this end, the remote control apparatus 200 can use Bluetooth, RF (radio frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee, or the like. In addition, the remote control apparatus 200 may receive an image, an audio or a data signal output from the user input interface unit 150, and display or output the audio from the remote control apparatus 200.

상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(7-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.The video display device 100 described above is a fixed type of ATSC (7-VSB) digital broadcasting, DVB-T (COFDM) digital broadcasting, ISDB-T (BST-OFDM) digital broadcasting, and the like. It may be a digital broadcast receiver capable of receiving at least one. In addition, as a mobile type, digital broadcasting of terrestrial DMB system, digital broadcasting of satellite DMB system, digital broadcasting of ATSC-M / H system, digital broadcasting of DVB-H system (COFDM system) and media flow link only system It may be a digital broadcast receiver capable of receiving at least one of digital broadcasts. It may also be a digital broadcast receiver for cable, satellite communications, or IPTV.

한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.On the other hand, the video display device described in the present specification is a TV receiver, a mobile phone, a smart phone (notebook computer), a digital broadcasting terminal, PDA (Personal Digital Assistants), PMP (Portable Multimedia Player), etc. May be included.

한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, a block diagram of the image display apparatus 100 shown in FIG. 1 is a block diagram for an embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted according to the specifications of the image display apparatus 100 that is actually implemented. That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. In addition, the functions performed in each block are intended to illustrate the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of the present invention.

도 2는 도 1의 제어부의 내부 블록도이고, 도 3은 3D 영상의 다양한 포맷을 보여주는 도면이며, 도 4는 도 3의 포맷에 따라 3D 시청장치의 동작을 보여주는 도면이다.FIG. 2 is an internal block diagram of the controller of FIG. 1, FIG. 3 is a diagram illustrating various formats of a 3D image, and FIG. 4 is a diagram illustrating an operation of a 3D viewing apparatus according to the format of FIG. 3.

도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(210), 영상 처리부(220), OSD 생성부(240), 믹서(245), 프레임 레이트 변환부(250), 및 포맷터(260)를 포함할 수 있다. 그 외 오디오 처리부(230), 데이터 처리부(미도시)를 더 포함할 수 있다.Referring to the drawings, the control unit 170 according to an embodiment of the present invention, the demultiplexer 210, the image processor 220, the OSD generator 240, the mixer 245, the frame rate converter 250, and a formatter 260. In addition, the audio processor 230 and a data processor may be further included.

역다중화부(210)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(210)에 입력되는 스트림 신호는, 튜너(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.The demultiplexer 210 demultiplexes an input stream. For example, when an MPEG-2 TS is input, it may be demultiplexed and separated into video, audio, and data signals, respectively. Here, the stream signal input to the demultiplexer 210 may be a stream signal output from the tuner 110, the demodulator 120, or the external device interface unit 130.

영상 처리부(220)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(220)는, 영상 디코더(225), 및 스케일러(235)를 구비할 수 있다. The image processor 220 may perform image processing of the demultiplexed image signal. To this end, the image processor 220 may include an image decoder 225 and a scaler 235.

영상 디코더(225)는, 역다중화된 영상신호를 복호화하며, 스케일러(235)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.The image decoder 225 decodes the demultiplexed image signal, and the scaler 235 performs scaling to output the resolution of the decoded image signal on the display 180.

영상 디코더(225)는 다양한 규격의 디코더를 구비하는 것이 가능하다. 예를 들어, 영상 디코더(225)는, MPEG-2 디코더, H.264 디코더, MPEC-C 디코더(MPEC-C part 3), MVC 디코더, FTV 디코더 중 적어도 하나를 구비할 수 있다. The video decoder 225 may include decoders of various standards. For example, the image decoder 225 may include at least one of an MPEG-2 decoder, an H.264 decoder, an MPEC-C decoder (MPEC-C part 3), an MVC decoder, and an FTV decoder.

한편, 영상 처리부(220)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다. Meanwhile, the image signal decoded by the image processor 220 may be classified into a case in which only a 2D image signal is present, a case in which a 2D image signal and a 3D image signal are mixed, and a case in which only a 3D image signal is present.

예를 들어, 외부 장치(190)으로부터 입력되는 외부 영상 신호 또는 튜너(110)에서 수신되는 방송 신호의 방송 영상 신호가, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있으며, 이에 따라, 이후의 제어부(170), 특히 영상 처리부(220) 등에서 신호 처리되어, 각각 2D 영상 신호, 2D 영상 신호와 3D 영상 신호의 혼합 신호, 3D 영상 신호가 출력될 수 있다.For example, when the broadcast video signal of the external video signal input from the external device 190 or the broadcast signal received by the tuner 110 includes only the 2D video signal, when the 2D video signal and the 3D video signal are mixed, And a 3D video signal, and accordingly, the signal is processed by the controller 170, in particular, the image processor 220, and thus, a mixed signal of the 2D video signal, the 2D video signal, and the 3D video signal, respectively. The 3D video signal may be output.

한편, 영상 처리부(220)에서 복호화된 영상 신호는, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다. The image signal decoded by the image processor 220 may be a 3D image signal having various formats. For example, the image may be a 3D image signal including a color image and a depth image, or may be a 3D image signal including a plurality of view image signals. The plurality of viewpoint image signals may include, for example, a left eye image signal and a right eye image signal.

여기서, 3D 영상 신호의 포맷은, 도 3과 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 3a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 3b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 3c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 3d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 3e) 등일 수 있다.Here, the format of the 3D video signal is a side by side format (FIG. 3A) in which the left eye video signal L and the right eye video signal R are arranged left and right, as shown in FIG. 3. Top / Down format (FIG. 3B) to arrange, Frame Sequential format (FIG. 3C) to arrange by time division, Interlaced format which mixes the left eye signal and the right eye video signal by line 3d), a checker box format (FIG. 3E) for mixing the left eye image signal and the right eye image signal for each box may be used.

OSD 생성부(240)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다. The OSD generator 240 generates an OSD signal according to a user input or itself. For example, a signal for displaying various types of information on a screen of the display 180 as a graphic or text may be generated based on a user input signal. The generated OSD signal may include various data such as a user interface screen, various menu screens, widgets, and icons of the image display apparatus 100. In addition, the generated OSD signal may include a 2D object or a 3D object.

믹서(245)는, OSD 생성부(240)에서 생성된 OSD 신호와 영상 처리부(220)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 이때, OSD 신호와 복호화된 영상 신호는 각각 2D 신호 및 3D 신호 중 적어도 하나를 포함할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(250)에 제공된다.The mixer 245 may mix the OSD signal generated by the OSD generator 240 and the decoded image signal processed by the image processor 220. In this case, the OSD signal and the decoded video signal may each include at least one of a 2D signal and a 3D signal. The mixed video signal is provided to the frame rate converter 250.

프레임 레이트 변환부(Frame Rate Conveter, FRC)(250)는, 입력되는 영상의 프레임 레이트를 변환한다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz로 변환한다. 60Hz의 프레임 레이트를 120Hz로 변환하는 경우, 제1 프레임과 제2 프레임 사이에, 동일한 제1 프레임을 삽입하거나, 제1 프레임과 제2 프레임으로부터 예측된 제3 프레임을 삽입하는 것이 가능하다. 60Hz의 프레임 레이트를 240Hz로 변환하는 경우, 동일한 프레임을 3개 더 삽입하거나, 예측된 프레임을 3개 삽입하는 것이 가능하다. The frame rate converter 250 converts the frame rate of the input video. For example, a 60Hz frame rate is converted to 120Hz or 240Hz. When converting a frame rate of 60 Hz to 120 Hz, it is possible to insert the same first frame or insert a third frame predicted from the first frame and the second frame between the first frame and the second frame. When converting a frame rate of 60 Hz to 240 Hz, it is possible to insert three more identical frames or three predicted frames.

한편, 이러한 프레임 레이트 변환부(250)는, 별도의 프레임 레이트 변환 없이, 입력되는 프레임 레이트를 그대로 출력하는 것도 가능하다. 바람직하게는, 2D 영상 신호가 입력되는 경우, 프레임 레이트를 그대로 출력할 수 있다. 한편, 3D 영상 신호가 입력되는 경우, 프레임 레이트를 상술한 바와 같이 가변하는 것이 가능하다.The frame rate converter 250 may output the input frame rate as it is without additional frame rate conversion. Preferably, when the 2D video signal is input, the frame rate can be output as it is. On the other hand, when a 3D video signal is input, the frame rate can be varied as described above.

포맷터(Formatter)(260)는, 믹서(245)에서 믹싱된 신호, 즉 OSD 신호와 복호화된 영상 신호를 입력받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다.The formatter 260 may receive a mixed signal from the mixer 245, that is, an OSD signal and a decoded video signal, and separate the 2D video signal and the 3D video signal.

한편, 본 명세서에서, 3D 영상 신호는 3D 오브젝트를 포함하는 것을 의미하며, 이러한 오브젝트의 예로는 PIP(picuture in picture) 영상(정지 영상 또는 동영상), 방송 프로그램 정보를 나타내는 EPG, 다양한 메뉴, 위젯, 아이콘, 텍스트, 영상 내의 사물, 인물, 배경, 웹 화면(신문, 잡지 등) 등이 있을 수 있다.Meanwhile, in the present specification, the 3D video signal is meant to include a 3D object. Examples of the object include a picture in picture (PIP) image (still image or a video), an EPG indicating broadcast program information, various menus, widgets, There may be an icon, text, an object in the image, a person, a background, a web screen (newspaper, magazine, etc.).

한편, 포맷터(260)는, 3D 영상 신호의 포맷을 변경할 수 있다. 예를 들어, 도 3에 예시된 다양한 포맷 중 어느 하나의 포맷으로 변경할 수 있다. 이에 따라, 해당 포맷에 따라, 도 4와 같이, 안경 타입의 3D 시청장치의 동작이 수행될 수 있다. The formatter 260 may change the format of the 3D video signal. For example, it may be changed to any one of the various formats illustrated in FIG. 3. Accordingly, according to the format, as shown in FIG. 4, the operation of the 3D viewing apparatus of the glasses type may be performed.

먼저, 도 4(a)는, 포맷터(260)가 도 3의 포맷 중 프레임 시퀀셜 포맷으로 정렬하여 출력하는 경우, 3D용 글래스(195), 특히 셔터 글래스(195)의 동작을 예시한다.First, FIG. 4A illustrates an operation of the 3D glasses 195, particularly the shutter glasses 195, when the formatter 260 arranges and outputs the frame sequential format among the formats of FIG. 3.

즉, 디스플레이(180)에 좌안 영상(L)이 표시된 경우, 셔터 글래스(195)의 좌안 글래스가 개방, 우안 글래스가 닫히는 것을 예시하며, 도 4(b)는, 셔터 글래스(195)의 좌안 글래스가 닫히고, 우안 글래스가 개방되는 것을 예시한다.That is, when the left eye image L is displayed on the display 180, the left eye glass of the shutter glass 195 is opened and the right eye glass is closed. FIG. 4B illustrates the left eye glass of the shutter glass 195. Closes and the right eye glass is opened.

한편, 도 4(b)는, 포맷터(260)가 도 3의 포맷 중 사이드 바이 사이드 포맷으로 정렬하여 출력하는 경우, 3D용 글래스(195), 특히 편광 글래스(195)의 동작을 예시한다. 한편, 도 4(b)에서 적용되는 3D용 글래스(195)는, 셔터 글래스일 수 있으며, 이때의 셔터 글래스는 좌안 글래스와 우안 글래스 모두가 개방된 상태를 유지하여, 편광 글래스 처럼 동작할 수 있다. On the other hand, Figure 4 (b) illustrates the operation of the 3D glass 195, in particular the polarized glass 195, when the formatter 260 is aligned in the side-by-side format of the format of Figure 3 output. Meanwhile, the 3D glass 195 applied in FIG. 4B may be a shutter glass, and the shutter glass at this time may be operated as a polarized glass by keeping both the left eye glass and the right eye glass open. .

한편, 포맷터(260)는, 2D 영상 신호를 3D 영상 신호로 전환할 수도 있다. 예를 들어, 3D 영상 생성 알고리즘에 따라, 2D 영상 신호 내에서 에지(edge) 또는 선택 가능한 오브젝트를 검출하고, 검출된 에지(edge)에 따른 오브젝트 또는 선택 가능한 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 이때, 생성된 3D 영상 신호는, 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리되어 정렬될 수 있다. The formatter 260 may convert a 2D video signal into a 3D video signal. For example, an edge or selectable object may be detected within the 2D image signal according to a 3D image generation algorithm, and an object or selectable object according to the detected edge may be separated into a 3D image signal and generated. Can be. In this case, the generated 3D image signal may be divided into a left eye image signal L and a right eye image signal R, as described above, and may be aligned.

한편, 도면에서는 도시하지 않았지만, 포맷터(260) 이후에, 3D 효과(3-dimensional effect) 신호 처리를 위한 3D 프로세서(미도시)가 더 배치되는 것도 가능하다. 이러한 3D 프로세서(미도시)는, 3D 효과의 개선을 위해, 영상 신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다. 예를 들어, 근거리는 선명하게, 원거리는 흐리게 만드는 신호 처리 등을 수행할 수 있다. 한편, 이러한 3D 프로세서의 기능은, 포맷터(260)에 병합되거나 영상처리부(220) 내에 병합될 수 있다. 이에 대해서는 도 5를 참조하여 후술한다.Although not shown in the drawing, a 3D processor (not shown) for processing a 3D effect signal may be further disposed after the formatter 260. The 3D processor (not shown) may process brightness, tint, and color adjustment of an image signal to improve 3D effects. For example, signal processing may be performed to sharpen the near distance and blur the far distance. Meanwhile, the functions of the 3D processor may be merged into the formatter 260 or merged into the image processor 220. This will be described later with reference to FIG. 5.

한편, 제어부(170) 내의 오디오 처리부(230)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(230)는 다양한 디코더를 구비할 수 있다.Meanwhile, the audio processor 230 in the controller 170 may perform voice processing of the demultiplexed voice signal. To this end, the audio processor 230 may include various decoders.

예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 돌비(Dolby) AC-3 규격의 부호화된 음성 신호인 경우, AC-3 디코더에 의해 복호화될 수 있다.For example, if the demultiplexed speech signal is a coded speech signal, it can be decoded. Specifically, when the demultiplexed speech signal is an encoded speech signal of MPEG-2 standard, it may be decoded by an MPEG-2 decoder. In addition, when the demultiplexed speech signal is an encoded speech signal of MPEG 4 Bit Sliced Arithmetic Coding (BSAC) standard according to the terrestrial digital multimedia broadcasting (DMB) scheme, it may be decoded by an MPEG 4 decoder. In addition, when the demultiplexed speech signal is an encoded audio signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB scheme or DVB-H, it may be decoded by the AAC decoder. In addition, when the demultiplexed speech signal is a encoded speech signal of the Dolby AC-3 standard, it may be decoded by the AC-3 decoder.

또한, 제어부(170) 내의 오디오 처리부(230)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. Also, the audio processor 230 in the controller 170 may process base, treble, volume control, and the like.

제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, ATSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(2 byte)에 포함되는 정보일 수 있다.The data processor (not shown) in the controller 170 may perform data processing of the demultiplexed data signal. For example, when the demultiplexed data signal is an encoded data signal, it may be decoded. The encoded data signal may be EPG (Electronic Progtam Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcasted in each channel. For example, the EPG information may be ATSC-PSIP (ATSC-Program and System Information Protocol) information in the case of the ATSC scheme, and may include DVB-Service Information (DVB-SI) in the case of the DVB scheme. . The ATSC-PSIP information or the DVB-SI information may be information included in the aforementioned stream, that is, the header (2 bytes) of the MPEG-2 TS.

한편, 도 2에서는 OSD 생성부(240)와 영상 처리부(220)으로부터의 신호를 믹서(245)에서 믹싱한 후, 포맷터(260)에서 3D 처리 등을 하는 것으로 도시하나, 이에 한정되지 않으며, 믹서가 포맷터 뒤에 위치하는 것도 가능하다. 즉, 영상 처리부(220)의 출력을 포맷터(260)에서 3D 처리하고, OSD 생성부(240)는 OSD 생성과 함께 3D 처리를 수행한 후, 믹서(245)에서 각각의 처리된 3D 신호를 믹싱하는 것도 가능하다.Meanwhile, although FIG. 2 illustrates that the signals from the OSD generator 240 and the image processor 220 are mixed in the mixer 245 and then 3D processed in the formatter 260, the mixer is not limited thereto. May be located after the formatter. That is, the output of the image processor 220 is 3D processed by the formatter 260, and the OSD generator 240 performs 3D processing together with OSD generation, and then mixes each processed 3D signal by the mixer 245. It is also possible.

한편, 도 2에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Meanwhile, a block diagram of the controller 170 shown in FIG. 2 is a block diagram for an embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted according to the specification of the controller 170 that is actually implemented.

특히, 프레임 레이트 변환부(250), 및 포맷터(260)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비될 수도 있다.In particular, the frame rate converter 250 and the formatter 260 may not be provided in the controller 170, but may be separately provided.

도 5는 본 발명의 실시예에 따른 3D 영상 신호의 다양한 스케일링 방식을 나타낸 도면이다. 5 is a diagram illustrating various scaling methods of a 3D video signal according to an embodiment of the present invention.

도면을 참조하면, 3D 효과(3-dimensional effect) 증대를 위해, 제어부(170)는 3D 효과 신호 처리를 수행할 수 있다. 그 중에서, 특히 3D 영상 내의 3D 오브젝트의 크기 또는 기울기 조절 등을 수행할 수 있다.Referring to the drawings, in order to increase the 3D effect, the controller 170 may perform 3D effect signal processing. Among them, in particular, the size or tilt of the 3D object in the 3D image may be adjusted.

도 5(a)와 같이, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트(510)를 일정 비율로 전체적으로 확대 또는 축소(512)할 수 있으며, 또한 도 5(b) 및 도 5(c)와 같이, 3D 오브젝트를 부분적으로 확대 또는 축소(사다리꼴 형상, 514, 516)할 수도 있다. 또한, 도 5(d)와 같이, 3D 오브젝트의 적어도 일부를 회전(평행 사변형 형상, 518)시킬 수도 있다. 이러한 스케일링(크기 조절) 또는 기울기 조절을 통해, 3D 영상 또는 3D 영상 내의 3D 오브젝트의 입체감 즉, 3D 효과(3-dimensional effect)를 강조할 수 있게 된다.As shown in FIG. 5A, the 3D video signal or the 3D object 510 in the 3D video signal may be enlarged or reduced 512 as a whole at a predetermined ratio, and as shown in FIGS. 5B and 5C. The 3D object may be partially enlarged or reduced (trapezoidal shapes 514 and 516). In addition, as shown in FIG. 5D, at least a part of the 3D object may be rotated (parallel quadrilateral shape) 518. Through such scaling (scaling) or tilting, it is possible to emphasize a three-dimensional effect, that is, a three-dimensional effect, of a 3D image or a 3D object in the 3D image.

한편, 기울기(slope)가 커질수록, 도 5(b) 또는 도 5(c)와 같이, 사다리꼴 형상(514,516)의 평행한 양변의 길이 차가 커지거나, 도 5(d)와 같이, 회전각이 더 커지게 된다.On the other hand, as the slope becomes larger, as shown in FIG. 5 (b) or FIG. 5 (c), the length difference between the parallel sides of the trapezoidal shapes 514 and 516 increases, or as shown in FIG. It gets bigger.

한편, 이러한 크기 조절 또는 기울기 조절은, 포맷터(260)에서 3D 영상 신호가 소정 포맷으로 정렬된 후 수행될 수 있다. 또는 영상처리부(220) 내의 스케일러(235)에서 수행되는 것이 가능하다. 한편, OSD 생성부(240)는, 3D 효과 강조를 위해, 생성되는 OSD를 도 5에서 예시한 바와 같은 형상으로 오브젝트를 생성하는 것도 가능하다.Meanwhile, the size adjustment or the tilt adjustment may be performed after the 3D video signal is aligned in a predetermined format in the formatter 260. Alternatively, the image may be performed by the scaler 235 in the image processor 220. On the other hand, the OSD generation unit 240, it is also possible to generate the object in the shape as shown in Figure 5 to generate the OSD to emphasize the 3D effect.

한편, 도면에서는 도시하지 않았지만, 3D 효과(3-dimensional effect)를 위한 신호 처리로서, 도 5에서 예시한 크기 조절 또는 기울기 조절 등 외에, 영상 신호 또는 오브젝트의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등의 신호 처리가 수행되는 것도 가능하다. 예를 들어, 근거리는 선명하게, 원거리는 흐리게 만드는 신호 처리 등을 수행할 수 있다. 한편, 이러한 3D 효과를 위한 신호 처리는, 제어부(170) 내에서 수행되거나, 별도의 3D 프로레서를 통해 수행될 수 있다. 특히, 제어부(170) 내에서 수행되는 경우, 상술한 크기 조절 또는 기울기 조절 등과 함께, 포맷터(260)에서 수행되거나, 또는 영상처리부((220) 내에서 수행되는 것이 가능하다. On the other hand, although not shown in the figure, as a signal processing for the 3-dimensional effect, in addition to the size adjustment or tilt adjustment illustrated in FIG. 5, the brightness, tint and It is also possible to perform signal processing such as color adjustment. For example, signal processing may be performed to sharpen the near distance and blur the far distance. Meanwhile, the signal processing for the 3D effect may be performed in the controller 170 or may be performed through a separate 3D processor. In particular, when performed in the controller 170, it may be performed in the formatter 260 or in the image processor 220 together with the above-described size adjustment or tilt adjustment.

특히, 본 발명의 실시예에 따라, 영상표시장치(100)의 디스플레이(180)가 지면에서 수직하게(vertical) 배치되다가, 지면과 수평하게(horizontal) 배치되는 경우, 3D 영상 또는 3D 영상 내의 3D 오브젝트의 밝기, 명암, 틴트 중 적어도 하나를 가변하거나, 3D 영상 내의 오브젝트의 크기 또는 기울기를 조절하는 신호 처리를 수행할 수 있다. 이에 의해, 디스플레이(180)의 수직 배치시 보다, 수평 배치시에, 3D 영상 또는 3D 오브젝트의 입체감이 더 향상되게 된다. In particular, when the display 180 of the image display apparatus 100 is vertically disposed on the ground and horizontally disposed on the ground, 3D in the 3D image or the 3D image according to the embodiment of the present invention. Signal processing may be performed to change at least one of brightness, contrast, and tint of an object or to adjust the size or tilt of an object in a 3D image. As a result, the stereoscopic effect of the 3D image or the 3D object is further improved when the display 180 is horizontally arranged than when the display 180 is vertically arranged.

도 6은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이며, 도 7은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다. FIG. 6 is a diagram illustrating an image formed by a left eye image and a right eye image, and FIG. 7 is a diagram illustrating a depth of a 3D image according to an interval between a left eye image and a right eye image.

먼저, 도 6을 참조하면, 복수의 영상 또는 복수의 오브젝트들(615, 625, 635, 645)이 예시된다. First, referring to FIG. 6, a plurality of images or a plurality of objects 615, 625, 635, and 645 are illustrated.

먼저, 제1 오브젝트(615)는, 제1 좌안 영상신호에 기초하는 제1 좌안 영상(611,L)과 제1 우안 영상신호에 기초하는 제1 우안 영상(613,R)를 포함하며, 제1 좌안 영상(611,L)과 제1 우안 영상(613,R)의 간격은 디스플레이(180) 상에서 d1 인 것이 예시된다. 이때, 사용자는 좌안(601)과 제1 좌안 영상(611)을 연결하는 연장선, 및 우안(603)과 제1 우안 영상(603)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제1 오브젝트(615)가 디스플레이(180) 보다 뒤에 위치하는 것으로 인식한다. First, the first object 615 includes first left eye images 611 and L based on the first left eye image signal and first right eye images 613 and R based on the first right eye image signal. An interval between the first left eye image 611 and L and the first right eye image 613 and R is illustrated to be d1 on the display 180. In this case, the user recognizes that an image is formed at an intersection point of the extension line connecting the left eye 601 and the first left eye image 611 and the extension line connecting the right eye 603 and the first right eye image 603. Accordingly, the user recognizes that the first object 615 is located behind the display 180.

다음, 제2 오브젝트(625)는, 제2 좌안 영상(621,L)과 제2 우안 영상(623,R)를 포함하며, 서로 겹쳐져 디스플레이(180)에 표시되므로, 그 간격은 0 인 것이 예시된다. 이에 따라, 사용자는 제2 오브젝트(625)가 디스플레이(180) 상에 위치 것으로 인식한다. Next, since the second object 625 includes the second left eye images 621 and L and the second right eye images 623 and R and overlaps each other, the second object 625 is displayed on the display 180. do. Accordingly, the user recognizes that the second object 625 is located on the display 180.

다음, 제3 오브젝트(635)와 제4 오브젝트(645)는, 각각 제3 좌안 영상(631,L)과 제2 우안 영상(633,R), 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)를 포함하며, 그 간격이 각각 d3, d4 인 것이 예시된다. Next, the third object 635 and the fourth object 645 are the third left eye image 631 and L, the second right eye image 633 and R, and the fourth left eye image 641 and L and the fourth object, respectively. The right eye images 643 and R are included, and the intervals are d3 and d4, respectively.

상술한 방식에 따라, 사용자는 상이 맺히는 위치에, 각각 제3 오브젝트(635)와 제4 오브젝트(645)가 위치하는 것으로 인식하며, 도면에서는, 각각 디스플레이(180) 보다 앞에 위치하는 것으로 인식한다. According to the above-described method, the user recognizes that the third object 635 and the fourth object 645 are positioned at the positions where the images are formed, respectively, and in the drawing, each of them is located in front of the display 180.

이때, 제4 오브젝트(645)가 제3 오브젝트(635) 보다 더 앞에, 즉 더 돌출되는 것으로 인식되며, 이는 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)의 간격(d4)이, 제3 좌안 영상(631,L)과 제3 우안 영상(633,R)의 간격(d3) 보다 더 큰 것에 기인한다.In this case, it is recognized that the fourth object 645 is projected ahead of the third object 635, that is, more protruding from the fourth object 635, which is the distance between the fourth left eye images 641 and L and the fourth right eye images 643 and R. d4) is larger than the distance d3 between the third left eye images 631 and L and the third right eye images 633 and R.

한편, 본 발명의 실시예에서는, 디스플레이(180)와 사용자에게 인식되는 오브젝트(615,625,635,645) 사이의 거리를 깊이(depth)로 표현한다. 이에 따라, 디스플레이(180)보다 뒤에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(-)을 가지는 것으로 하며, 디스플레이(180)보다 앞에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(+)을 가지는 것으로 한다. 즉, 사용자 방향으로 돌출 정도가 더 클수록, 깊이의 크기는 더 커지게 된다.Meanwhile, in the exemplary embodiment of the present invention, the distance between the display 180 and the objects 615, 625, 635, and 645 recognized by the user is expressed as a depth. Accordingly, the depth when the user is recognized as if it is located behind the display 180 has a negative value (-), and the depth when the user is recognized as if it is located before the display 180. (depth) is assumed to have a negative value (+). That is, the greater the degree of protrusion in the direction of the user, the greater the size of the depth.

도 7을 보면, 도 7(a)의 좌안 영상(701)과 우안 영상(702) 간의 간격(a)이, 도 7(b)에 도시된 좌안 영상(701)과 우안 영상(702) 간의 간격(b)이 더 작은 경우, 도 7(a)의 3D 오브젝트의 깊이(a') 보다, 도 7(b)의 3D 오브젝트의 깊이(b')가 더 작은 것을 알 수 있다. Referring to FIG. 7, the distance a between the left eye image 701 and the right eye image 702 of FIG. 7A is the distance between the left eye image 701 and the right eye image 702 shown in FIG. 7B. When (b) is smaller, it can be seen that the depth b 'of the 3D object of FIG. 7 (b) is smaller than the depth a' of the 3D object of FIG. 7 (a).

이와 같이, 3D 영상이 좌안 영상과 우안 영상으로 예시되는 경우, 좌안 영상과 우안 영상 간의 간격에 의해, 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지게 된다. 따라서, 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 3D 영상 또는 3D 오브젝트의 깊이를 조절할 수 있게 된다.As such, when the 3D image is exemplified as the left eye image and the right eye image, a position recognized as image formation from the user's point of view varies depending on the distance between the left eye image and the right eye image. Therefore, by adjusting the display interval of the left eye image and the right eye image, it is possible to adjust the depth of the 3D image or 3D object composed of the left eye image and the right eye image.

도 8은 도 1의 영상표시장치의 디스플레이 배치의 일예를 도시한 도면이다.FIG. 8 is a diagram illustrating an example of a display arrangement of the image display device of FIG. 1.

도면을 참조하면, 먼저, 도 8(a)는 영상표시장치(100)의 디스플레이(180)가 지면에 수직하게(vertical) 배치되는 것을 예시한다. 이를 위해, 영상표시장치(100)는, 수직 배치를 위한 지지대(810) 상에 배치될 수 있다. Referring to the drawings, first, FIG. 8A illustrates that the display 180 of the image display apparatus 100 is vertically disposed on the ground. To this end, the image display apparatus 100 may be disposed on the support 810 for vertical placement.

이때, 수직 배치를 위한 지지대(810)는, 셋탑 박스로서, 튜너(110), 복조부(120), 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 센서부(160), 제어부(170), 오디오 출력부(185), 전원공급부 중 적어도 일부를 포함할 수 있다.At this time, the support 810 for the vertical arrangement, a set-top box, the tuner 110, the demodulator 120, the external device interface unit 130, the network interface unit 135, the storage unit 140, the user input The interface unit 150 may include at least some of the sensor unit 160, the control unit 170, the audio output unit 185, and the power supply unit.

한편, 입력되는 영상의 신호 처리 등은 영상표시장치(100) 자체에서 수행하는 것이 가능하나, 이와 달리, 셋탑 박스로서의 지지대(810)에서 처리되는 것도 가능하다. 이러한 경우, 셋탑박스로서의 지지대(810)와 영상표시장치(100)는 서로 유선 통신을 수행하는 것이 가능하다.Meanwhile, the signal processing of the input image may be performed by the image display apparatus 100 itself. Alternatively, the image processing may be performed by the support 810 as a set-top box. In this case, the support 810 and the image display device 100 as a set-top box can perform wired communication with each other.

다음, 도 8(b)는 영상표시장치(100)의 디스플레이(180)가 지면에 수평하게(horizontal) 배치되는 것을 예시한다. 이를 위해, 영상표시장치(100)는, 수평 배치를 위한 지지대(820) 상에 배치될 수 있다. 또는, 지지대(820) 상이 아닌, 예를 들어, 탁자나 책상, 평평한 가구 또는 바닥 위에 놓여질 수도 있다.Next, FIG. 8B illustrates that the display 180 of the image display apparatus 100 is horizontally disposed on the ground. To this end, the image display apparatus 100 may be disposed on the support 820 for horizontal placement. Or, it may be placed on a table or desk, flat furniture or floor, but not on the support 820.

도 8(b)와 같이, 영상표시장치(100)의 디스플레이(180)가 지면에 수평하게(horizontal) 배치되는 경우, 입력되는 영상의 신호 처리 등은 영상표시장치(100) 자체에서 수행하는 것이 가능하나, 이와 달리, 도 8(a)에서 기술한 셋탑 박스로서의 지지대(810)에서 처리되는 것도 가능하다. 이러한 경우, 셋탑박스로서의 지지대(810)와 영상표시장치(100)는 서로 무선 통신을 수행하는 것이 가능하다.As shown in FIG. 8B, when the display 180 of the image display apparatus 100 is horizontally disposed on the ground, signal processing of an input image is performed by the image display apparatus 100 itself. Alternatively, alternatively, it is possible to be processed in the support 810 as a set-top box described in FIG. In this case, the support 810 and the image display device 100 as a set-top box can perform wireless communication with each other.

한편, 도 8(b)와 같이, 영상표시장치(100)의 디스플레이(180)가 지면에 수평하게(horizontal) 배치되는 경우, 3D 영상 표시시 사용자는 3D 시청 장치(195a, 195b)를 이용하여, 3D 영상을 시청할 수 있게 된다.Meanwhile, as shown in FIG. 8B, when the display 180 of the image display apparatus 100 is horizontally disposed on the ground, the user uses the 3D viewing apparatuses 195a and 195b to display the 3D image. 3D video can be watched.

한편, 본 명세서에서 수평이란, 실질적으로 기울지 않고 평평한 상태로, 지면에 평행한 상태를 말한다. 수평 방향이란 지구 중력의 방향과 실질적으로 직각을 이루는 방향이다. 지지대(320) 또는 바닥의 평형 상태에 따라 정확히 지구 중력의 방향과 수직이 되지 않을 수도 있으며, 본 명세서에서 수평으로 배치되는 완전한 평형 상태만을 의미하지 않고, 디스플레이(180)의 화면이 상부로 즉, 지면을 향하는 방향과 반대 방향으로 노출되는 상태를 포함할 수 있다. 수평 방향은 지구 중력 방향과 정확히 90도를 이루는 방향 뿐만 아니라 지지대(320) 또는 바닥의 평형 상태에 따라 소정 각도의 오차 범위를 포함할 수 있다.In addition, in this specification, a horizontal means the state parallel to the ground in a flat state without inclining substantially. The horizontal direction is the direction perpendicular to the direction of the Earth's gravity. Depending on the equilibrium state of the support 320 or the bottom may not be exactly perpendicular to the direction of the earth's gravity, it does not mean only the complete equilibrium state horizontally arranged in this specification, the screen of the display 180 to the top, that is, It may include a state exposed in the direction opposite to the direction toward the ground. The horizontal direction may include an error range of a predetermined angle according to the equilibrium state of the support 320 or the floor, as well as a direction that forms exactly 90 degrees with the earth's gravity direction.

도 9는 본 발명의 실시예에 따른 3D 시청장치와 영상표시장치를 도시한 도면이고, 도 10은 도 9의 3D 시청장치와 영상표시장치의 내부 블록도이다.9 is a diagram illustrating a 3D viewing apparatus and an image display apparatus according to an exemplary embodiment of the present invention, and FIG. 10 is an internal block diagram of the 3D viewing apparatus and the image display apparatus of FIG. 9.

도 9 및 도 10을 참조하면, 본 발명의 실시예에 따른 3D 시청장치(195)는, 전원 공급부(910), 스위치(918), 제어부(920), 무선 통신부(930), 좌안 글래스(940), 및 우안 글래스(960)를 포함할 수 있다. 9 and 10, the 3D viewing apparatus 195 according to an embodiment of the present invention includes a power supply unit 910, a switch 918, a controller 920, a wireless communication unit 930, and a left eye glass 940. ), And the right eye glass 960.

전원 공급부(910)는, 좌안 글래스(940)와 우안 글래스(960)에 전원을 공급한다. 도 3 내지 도 5에서 기술한 바와 같이, 좌안 글래스(940)에 구동 전압(VthL)을 인가하고, 우안 글래스(960)에 구동 전압(VthR)을 인가한다. 이에 따라, 각각의 좌안 글래스(940)와 우안 글래스(960)가 개방되게 된다. The power supply unit 910 supplies power to the left eye glass 940 and the right eye glass 960. 3 to 5, the driving voltage VthL is applied to the left eye glass 940, and the driving voltage VthR is applied to the right eye glass 960. Accordingly, the left eye glass 940 and the right eye glass 960 are opened.

구동 전압(VthL)과 구동 전압(VthR)은 서로 다른 기간에 교호하게 공급되는 것이 바람직하며, 편광 방향이 다르도록 하기 위해, 서로 다른 레벨일 수 있다.The driving voltage VthL and the driving voltage VthR are preferably alternately supplied at different periods, and may be at different levels so that the polarization directions are different.

한편, 전원 공급부(910)는, 3D 시청 장치(195) 내의 제어부(920), 무선 통신부(930)의 동작을 위한 동작 전원을 공급할 수 있다.The power supply unit 910 may supply operation power for the operation of the controller 920 and the wireless communication unit 930 in the 3D viewing apparatus 195.

스위치(918)는, 3D 시청장치(195)의 동작을 온 또는 오프시키는 데에 사용된다. 특히, 동작 전원을 온 또는 오프시키는 데에 사용된다. 스위치(918)가 온 되는 경우, 전원 공급부(910)가 동작하여, 제어부(920), 무선 통신부(930), 좌안 글래스(940), 및 우안 글래스(960)에 해당 전원이 공급되게 된다. The switch 918 is used to turn on or off the operation of the 3D viewing apparatus 195. In particular, it is used to turn on or off the operating power supply. When the switch 918 is turned on, the power supply unit 910 operates to supply the corresponding power to the controller 920, the wireless communication unit 930, the left eye glass 940, and the right eye glass 960.

제어부(920)는, 영상표시장치(100)의 디스플레이(180)에서 표시되는 좌안 영상 프레임, 우안 영상 프레임과, 3D 시청장치(195)의 좌안 글래스(940), 우안 글래스(960)가 동기되어 개폐되도록 제어할 수 있다. 이때, 무선 통신부(198)로부터 수신된 동기 신호(Sync)에 동기하여, 좌안 글래스(940)와 우안 글래스(960)를 개폐할 수 있다. The controller 920 synchronizes the left eye image frame and the right eye image frame displayed on the display 180 of the image display apparatus 100 with the left eye glass 940 and the right eye glass 960 of the 3D viewing apparatus 195. It can be controlled to open and close. At this time, the left eye glass 940 and the right eye glass 960 may be opened and closed in synchronization with the synchronization signal Sync received from the wireless communication unit 198.

또한, 제어부(920)는, 전원 공급부(910)와, 무선 통신부(930)의 동작을 제어할 수 있다. 스위치(918)가 온 되는 경우, 제어부(920)는 전원 공급부(910)가 동작하여 각 구성요소로 전원을 공급하도록 제어할 수 있다. In addition, the controller 920 may control operations of the power supply unit 910 and the wireless communication unit 930. When the switch 918 is turned on, the controller 920 may control the power supply 910 to operate to supply power to each component.

한편, 제어부(920)는, 영상표시장치(100)와의 페어링(pairing)을 위해, 무선 통신부(930)을 제어하여, 페어링 신호가 영상표시장치(100)로 전송되도록 제어할 수 있다. 또는 영상표시장치(100)로부터 페어링 신호를 수신할 수도 있다.The controller 920 may control the wireless communication unit 930 to transmit the pairing signal to the image display apparatus 100 for pairing with the image display apparatus 100. Alternatively, the pairing signal may be received from the image display apparatus 100.

무선 통신부(930)는, 영상표시장치(100)와 IR(InfraRed) 방식 또는 RF(Radio Frequency) 방식 등을 이용하여, 영상표시장치(100)의 무선 통신부(198)와 데이터를 송신 또는 수신할 수 있다. 특히, 영상표시장치(100)의 무선 통신부(198)로부터 좌안 글래스(940)와 우안 글래스(960)의 개폐를 위한 동기 신호(Sync)를 수신할 수 있다. 이러한 동기 신호(Sync)에 따라, 좌안 글래스(940)와 우안 글래스(960)의 개폐 동작이 제어되게 된다. The wireless communication unit 930 may transmit or receive data to and from the wireless communication unit 198 of the image display apparatus 100 using the image display apparatus 100 and the IR (InfraRed) or RF (Radio Frequency) scheme. Can be. In particular, the synchronization signal Sync for opening and closing the left eye glass 940 and the right eye glass 960 may be received from the wireless communication unit 198 of the image display apparatus 100. According to the synchronization signal Sync, the opening and closing operations of the left eye glass 940 and the right eye glass 960 are controlled.

그리고, 무선 통신부(930)는, 영상표시장치(100)와의 페어링 신호를 송신 또는 수신할 수 있다. 그 외, 3D 시청장치(195)의 사용 여부 신호를 영상표시장치(100)로 전송하는 것도 가능하다.The wireless communication unit 930 may transmit or receive a pairing signal with the video display device 100. In addition, it is also possible to transmit a signal whether the 3D viewing apparatus 195 is used to the image display apparatus 100.

좌안 글래스(940)와 우안 글래스(960)는, 인가되는 전기 신호에 따라 편광되는 능동형 좌안 글래스와 능동형 우안 글래스일 수 있다. 한편, 좌안 글래스(940)와 우안 글래스(960)는, 인가되는 전압에 의해, 편광 방향이 가변할 수 있다. The left eye glass 940 and the right eye glass 960 may be active left eye glasses and active right eye glasses that are polarized according to an applied electrical signal. On the other hand, in the left eye glass 940 and the right eye glass 960, the polarization direction can vary according to the voltage applied.

예를 들어, 영상표시장치(100)에서 동기 신호(Sync)에 따라, 좌안 글래스(940)와 우안 글래스(960)가 교호하게 개방될 수 있다. 이러한 3D 시청장치(195)는 상술한 바와 같이 셔터 글래스 타입일 수 있다.For example, the left eye glass 940 and the right eye glass 960 may be alternately opened in accordance with the synchronization signal Sync in the image display apparatus 100. The 3D viewing apparatus 195 may be a shutter glass type as described above.

영상표시장치(100)는, 도 1 및 도 2에서 상술한 바와 같이, 무선 통신부(198), 제어부(170), 및 디스플레이(180) 등을 포함할 수 있다. 이하에서는 3D 시청장치(195)와의 동작을 중심으로 기술한다.As described above with reference to FIGS. 1 and 2, the image display apparatus 100 may include a wireless communication unit 198, a controller 170, a display 180, and the like. Hereinafter, the operation with the 3D viewing apparatus 195 will be described.

영상표시장치(100) 내의 무선 통신부(198)는, 3D 시청장치(195)로 동기 신호(Sync)를 송신할 수 있다. 예를 들어, 영상표시장치(100)의 디스플레이(180)에 순차적으로 표시되는 좌안 영상 프레임과 우안 영상 프레임에 동기되어, 3D 시청장치(195)의 좌안 글래스(940)와 우안 글래스(960)가 개방되도록 하는 동기 신호(Sync)가, 무선 통신부(198)에서 송신될 수 있다.The wireless communication unit 198 in the image display apparatus 100 may transmit a synchronization signal Sync to the 3D viewing apparatus 195. For example, the left eye glass 940 and the right eye glass 960 of the 3D viewing device 195 are synchronized with the left eye image frame and the right eye image frame sequentially displayed on the display 180 of the image display apparatus 100. A synchronization signal Sync to be opened may be transmitted in the wireless communication unit 198.

한편, 영상표시장치(100) 내의 제어부(170)는, 디스플레이(180)에 순차적으로 표시되는 좌안 영상 프레임과 우안 영상 프레임에 맞추어, 해당 동기 신호를 출력하도록 무선 통신부(198)를 제어한다.Meanwhile, the controller 170 of the image display apparatus 100 controls the wireless communication unit 198 to output the corresponding synchronization signal in accordance with the left eye image frame and the right eye image frame sequentially displayed on the display 180.

그리고, 제어부(170)는, 3D 시청장치(195)와의 페어링을 위한 페어링 신호를 송신 또는 수신하도록 무선 통신부(198)를 제어한다. The controller 170 controls the wireless communication unit 198 to transmit or receive a pairing signal for pairing with the 3D viewing apparatus 195.

도 11a 내지 도 13b는 본 발명의 실시예에 따른 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.11A to 13B are views referred to for describing various examples of a method of operating an image display apparatus according to an exemplary embodiment of the present invention.

제어부(170)는, 센서부(160) 또는 촬영부(140)을 이용하여, 영상표시장치(100)의 디스플레이가 지면에 수평하게(도 8(b) 참조), 배치되었는 지 여부를 판단한다. 예를 들어, 센서부(160) 내의 자이로 센서를 이용하여, 디스플레이(180)가 지면에 수평한지 여부를 감지하고, 감지 신호는 제어부(170)에 입력될 수 있다.The controller 170 determines whether the display of the image display apparatus 100 is disposed horizontally on the ground (see FIG. 8B) by using the sensor unit 160 or the imaging unit 140. . For example, by using a gyro sensor in the sensor unit 160, whether the display 180 is horizontal to the ground is detected, and a detection signal may be input to the controller 170.

제어부(170)는, 3D 영상 표시시, 영상표시장치(100)의 디스플레이가 지면에 수평하게 배치된 경우, 3D 효과를 위한 신호 처리를 수행할 수 있다. When the 3D image is displayed, the controller 170 may perform signal processing for the 3D effect when the display of the image display apparatus 100 is horizontally disposed on the ground.

3D 효과를 위한 신호 처리는, 상술한 도 5의 설명에서 기술한 바와 같이, 3D 영상의 선명도, 밝기, 명암, 틴트 중 적어도 하나를 가변하거나, 3D 영상 내의 오브젝트의 크기 또는 기울기를 조절하는 신호 처리일 수 있다.Signal processing for the 3D effect, as described in the description of FIG. 5 described above, the signal processing to change at least one of the sharpness, brightness, contrast, tint of the 3D image, or to adjust the size or tilt of the object in the 3D image Can be.

3D 효과를 위한 신호 처리는, 영상표시장치(100)의 디스플레이(180)가 지면에 수평하게 배치된 경우, 수행되지 않다가, 영상표시장치(100)의 디스플레이(180)가 지면에 수직하게 배치된 경우, 비로소 수행될 수 있다. 또는, 수평 배치된 경우에 비해, 수직하게 배치된 경우, 3D 효과 신호 처리가 더 강화되는 것도 가능하다.Signal processing for the 3D effect is not performed when the display 180 of the image display apparatus 100 is disposed horizontally on the ground, but the display 180 of the image display apparatus 100 is disposed perpendicular to the ground. If so, it can be performed. Alternatively, when arranged vertically, 3D effect signal processing may be further enhanced than when arranged horizontally.

한편, 도 11a는, 영상표시장치(100)의 디스플레이(180)가 지면에 수직하게 배치된 경우에 3D 오브젝트(1110)가 표시되는 것을 예시한다. 사용자는 3D 시청 장치(195) 착용시, 소정 깊이(da)를 갖는 3D 오브젝트(1110), 특히 3D 오브젝트(1110)의 제1 면(1110a)가 돌출되는 것을 확인할 수 있게 된다. Meanwhile, FIG. 11A illustrates that the 3D object 1110 is displayed when the display 180 of the image display apparatus 100 is disposed perpendicular to the ground. When the user wears the 3D viewing apparatus 195, the user may confirm that the 3D object 1110 having a predetermined depth da, in particular, the first surface 1110a of the 3D object 1110 protrudes.

다음, 도 11b는, 영상표시장치(100)의 디스플레이(180)가 지면에 수평하게 배치된 경우에 3D 오브젝트(1110)가 표시되는 것을 예시한다. 사용자는 3D 시청 장치(195) 착용시, 소정 깊이(db)를 갖는 3D 오브젝트(1120)가 돌출되는 것을 확인할 수 있게 된다. 특히, 도 11a와 비교하여, 3D 오브젝트(1120)의 제1 면(1120a) 외에, 제2 면(1120b), 및 제3 면(1120c)가 돌출되어 보이는 것으로 인식할 수 있게 된다.Next, FIG. 11B illustrates that the 3D object 1110 is displayed when the display 180 of the image display apparatus 100 is horizontally disposed on the ground. When the user wears the 3D viewing apparatus 195, the user may confirm that the 3D object 1120 having a predetermined depth db protrudes. In particular, compared to FIG. 11A, in addition to the first surface 1120a of the 3D object 1120, the second surface 1120b and the third surface 1120c may be recognized as protruding.

이와 같이, 영상표시장치(100)의 디스플레이(180)가 지면에 수평하게 배치된 경우에, 3D 오브젝트(1120)를 둘러싸는 그래픽적인 배경이 없기 때문에 사용자가 위치한 실제 공간을 배경으로 하여, 홀로그램과 같이, 3D 오브젝트(1120)가 서있는 듯한 생생한 입체감을 제공할 수 있다.As such, when the display 180 of the image display apparatus 100 is horizontally disposed on the ground, since there is no graphic background surrounding the 3D object 1120, the hologram and Likewise, the 3D object 1120 may provide a vivid three-dimensional appearance as if standing.

다음, 도 11c는 3D 효과를 위한 신호 처리를 예시한다. Next, Figure 11C illustrates signal processing for the 3D effect.

제어부(170)는, 영상표시장치(100)의 디스플레이(180)가 지면에 수직하게 배치된 경우에, 오브젝트(1130)에 좌안 영상과 우안 영상 사이의 양안 시차에 의한 깊이(da)를 부여한다. 이에 따라, 도 11a와 같이, 3D 오브젝트(1110)가 돌출되어 보이게 된다. 그 외, 3D 효과를 위한 신호 처리는 수행되지 않거나, 미미하게 수행될 수 있다. 이에 따라, 오브젝트(1130)의 제1 영역(1130a)은, 도 5에서 기술한 바와 같은 스케일링 또는 기울기 조절 등이 수행되지 않게 된다. When the display 180 of the image display apparatus 100 is disposed perpendicular to the ground, the controller 170 provides the object 1130 with a depth da due to the binocular disparity between the left eye image and the right eye image. . Accordingly, as shown in FIG. 11A, the 3D object 1110 is protruded to appear. In addition, the signal processing for the 3D effect may not be performed or may be performed insignificantly. Accordingly, the first region 1130a of the object 1130 does not perform scaling or tilt adjustment as described in FIG. 5.

한편, 제어부(170)는, 영상표시장치(100)의 디스플레이(180)가 지면에 수평하게 배치된 경우에, 오브젝트(1140)에 좌안 영상과 우안 영상 사이의 양안 시차에 의한 깊이(db)를 부여한다. 이에 따라, 도 12b와 같이, 3D 오브젝트(1120)가 돌출되어 보이게 된다. 그 외, 3D 효과를 위한 신호 처리가 수행된다. 또는 수직 배치시에 비해 더 강화된다. On the other hand, when the display 180 of the image display apparatus 100 is horizontally disposed on the ground, the control unit 170 provides the object 1140 with the depth db due to the binocular disparity between the left eye image and the right eye image. Grant. Accordingly, as shown in FIG. 12B, the 3D object 1120 is protruded and viewed. In addition, signal processing for 3D effects is performed. Or even stronger than in a vertical arrangement.

이에 따라, 오브젝트(1140)의 제1 영역(1140a)은 도 5에서 기술한 바와 같이, 일부 회전 처리되어, 직사각형에서 평행사변형 형상으로 가변할 수 있다. 그 외, 입체 효과를 위해, 제1 영역(1140a)의 에지 부근에, 제2 영역(1140b), 및 제3 영역(1140c)이 더 부가될 수 있다. 이때의 제2 영역(1140b), 제3 영역(1140c)은 제1 영역(1140a)의 에지를 기반으로 새롭게 생성될 수 있다. Accordingly, as illustrated in FIG. 5, the first region 1140a of the object 1140 may be partially rotated to vary from a rectangle to a parallelogram shape. In addition, for the stereoscopic effect, a second region 1140b and a third region 1140c may be further added near the edge of the first region 1140a. In this case, the second region 1140b and the third region 1140c may be newly generated based on the edge of the first region 1140a.

한편, 상술한 3D 효과를 위한 신호 처리는, 새로운 시점(view)의 영상을 복호화하고, 이를 원 영상에 부가하는 것에 의해 수행되는 것도 가능하다. 예를 들어, 입력되는 영상 신호가, MVC(multi-view video coding) 등에 따라, 복수 시점 영상으로 부호화된 경우, 복수 시점 영상 중, 도 11c의 제2 영역(1140b)에 해당하는 시점(view)의 영상, 제3 영역(1140c)에 해당하는 시점(view)의 영상을 각각 복호화하고, 복호화된 각 시점의 영상을, 도 11c의 제1 영역(1140a)에 해당하는 시점(view)의 영상, 즉 좌안 영상과 우안 영상에, 부가할 수도 있다.Meanwhile, the above-described signal processing for the 3D effect may be performed by decoding an image of a new view and adding it to the original image. For example, when an input video signal is encoded into a multi-view video according to MVC (multi-view video coding) or the like, a view corresponding to the second area 1140b of FIG. 11C among the multi-view videos is included. Image of the view corresponding to the first region 1140a of FIG. 11C, and the image of the view corresponding to the first region 1140a of FIG. 11C. That is, it may add to the left eye image and the right eye image.

이에 의해, 디스플레이(180)가 지면에 수평하게 배치된 경우, 디스플레이(180)가 지면에 수직하게 배치된 경우에 비해, 3D 오브젝트의 입체감을 향상시켜 제공할 수 있게 된다.As a result, when the display 180 is disposed horizontally on the ground, the display 180 may be provided with an improved 3D object compared with the case where the display 180 is disposed perpendicular to the ground.

한편, 센서부(160) 또는 촬영부(190)는, 3D 영상 시청을 위한 3D 시청 장치(195)의 위치를 감지한다. 예를 들어, 센서부(160) 내의 위치 센서로, 사용자 또는 3D 시청 장치(195)를 감지할 수 있다. Meanwhile, the sensor unit 160 or the imaging unit 190 detects the position of the 3D viewing apparatus 195 for viewing 3D images. For example, the position sensor in the sensor unit 160 may sense the user or the 3D viewing device 195.

한편, 3D 시청 장치(195)의 무선 통신부(930)와 통신하는, 영상표시장치(100)의 무선 통신부(198)를 이용하여, 3D 시청 장치(195)의 위치를 감지할 수도 있다.Meanwhile, the position of the 3D viewing apparatus 195 may be sensed by using the wireless communication unit 198 of the image display apparatus 100 that communicates with the wireless communication unit 930 of the 3D viewing apparatus 195.

본 발명에 따르면 사용자의 위치 정보에 따라 최적화된 영상을 표시할 수 있다.According to the present invention, the optimized image can be displayed according to the location information of the user.

도 12a은, 디스플레이(180)가 지면에 수평하게 배치된 경우, 3D 오브젝트(1310)가 표시되는 것을 예시한다. 특히, 사용자가 디스플레이(180)의 하부(촬영부(190) 없는 부분)에 인접한 위치에서, 3D 시청 장치(195)를 착용한 경우, 3D 오브젝트(1310)는 디스플레이(180) 상의 지점(P1)에 이격되어, 돌출되어 보이게 된다.12A illustrates that the 3D object 1310 is displayed when the display 180 is horizontally disposed on the ground. In particular, when the user wears the 3D viewing device 195 at a position adjacent to the lower portion of the display 180 (the portion without the photographing unit 190), the 3D object 1310 is a point P1 on the display 180. They are spaced apart and appear protruding.

도 12b는, 디스플레이(180)가 지면에 수평하게 배치된 경우, 3D 오브젝트가 표시되는 것을 예시한다. 특히, 사용자가 디스플레이(180)의 상부(촬영부(190) 있는 부분)에 인접한 위치에서, 3D 시청 장치(195)를 착용한 경우, 3D 오브젝트(1320)는 디스플레이(180) 상의 지점(P1)에 이격되어, 함몰되어 보이게 된다.12B illustrates that the 3D object is displayed when the display 180 is horizontally disposed on the ground. In particular, when the user wears the 3D viewing device 195 at a position adjacent to the upper portion of the display 180 (the portion with the image capture unit 190), the 3D object 1320 is a point P1 on the display 180. Spaced apart, it appears to be depressed.

도 13a는 사용자의 위치, 즉, 3D 시청 장치(195)의 위치에 따라, 3D 오브젝트의 상이 맺히는 것을 설명하는 도면이다.FIG. 13A is a diagram illustrating that images of 3D objects are formed according to a location of a user, that is, a location of the 3D viewing apparatus 195.

도면을 참조하면, 제1 사용자, 즉 제1 시청 장치의 위치는, 도 12a에서의 위치와 같이, 사용자가 디스플레이(180)의 하부(촬영부(190) 없는 부분)에 인접한 위치인 것으로 가정하고, 제2 사용자, 즉 제2 시청 장치의 위치는, 도 12b에서의 위치와 같이, 사용자가 디스플레이(180)의 상부(촬영부(190) 있는 부분)에 인접한 위치인 것으로 가정한다.Referring to the drawings, it is assumed that the position of the first user, that is, the first viewing device, is a position adjacent to the lower portion of the display 180 (the portion without the photographing unit 190), as shown in FIG. 12A. The position of the second user, that is, the second viewing device, is assumed to be a position adjacent to the upper portion of the display 180 (the portion of the image capturing unit 190), as shown in FIG. 12B.

제1 오브젝트(1425)는, 제1 좌안 영상(1421,L)과 제1 우안 영상(1423,R)를 포함하며, 서로 겹쳐져 디스플레이(180)에 표시되므로, 그 간격은 0 인 것이 예시된다. 이에 따라, 제1 사용자와 제2 사용자는 제1 오브젝트(1425)가 디스플레이(180) 상에 위치 것으로 인식한다. Since the first object 1425 includes the first left eye images 1421 and L and the first right eye images 1423 and R, the first object 1425 overlaps each other and is displayed on the display 180. Accordingly, the first user and the second user recognize that the first object 1425 is located on the display 180.

다음, 제2 오브젝트(1435)는, 제2 좌안 영상(1431,L)과 제2 우안 영상(1433,R)을 포함하며, 그 간격이 각각 d3인 것이 예시된다. Next, the second object 1435 includes the second left eye images 1431 and L and the second right eye images 1433 and R, and the intervals are d3, respectively.

이때, 제1 사용자는, 좌안(1401)과 제2 좌안 영상(1431)을 연결하는 연장선, 및 우안(1403)과 제2 우안 영상(1433)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서, 제1 사용자는 제2 오브젝트(1435)가 디스플레이(180) 보다 앞에 위치하여, 돌출되어 보이는 것으로 인식한다. In this case, the first user may be formed at the point where the extension line connecting the left eye 1401 and the second left eye image 1431 and the extension line connecting the right eye 1403 and the second right eye image 1433 cross each other. Recognize. Accordingly, the first user recognizes that the second object 1435 is located in front of the display 180 and protrudes.

한편, 제2 사용자는, 좌안(1405)과 제2 좌안 영상(1431)을 연결하는 연장선, 및 우안(1407)과 제2 우안 영상(1433)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서, 제2 사용자는 제2 오브젝트(1435)가 디스플레이(180) 보다 뒤에 위치하여, 함몰되어 보이는 것으로 인식한다. On the other hand, the second user may be formed at the point where the extension line connecting the left eye 1405 and the second left eye image 1431 and the extension line connecting the right eye 1407 and the second right eye image 1433 cross each other. Recognize. Accordingly, the second user recognizes that the second object 1435 is located behind the display 180 and appears to be recessed.

즉, 디스플레이(180)가 지면에 수평하게 배치된 상태에서, 제1 시청 장치와 제2 시청 장치가 디스플레이(180)를 기준으로 서로 반대 방향에 위치하는 경우, 어느 한 시청 장치를 착용한 사용자는, 표시되는 3D 영상 또는 3D 오브젝트를 돌출되어 보이는 것으로 인식하나, 나머지 하나의 시청 장치를 착용한 사용자는, 표시되는 3D 영상 또는 3D 오브젝트를 함몰되어 보이는 것으로 인식한다.That is, when the first viewing device and the second viewing device are located in opposite directions with respect to the display 180 while the display 180 is horizontally disposed on the ground, a user wearing one viewing device may Although the 3D image or 3D object to be displayed is recognized as protruding, the user wearing the other viewing device recognizes the displayed 3D image or 3D object as being depressed.

이를 위해, 본 발명의 실시예에서는, 상술한 복수의 시청 장치들 중 어느 하나의 좌안 글래스와 우안 글래스를 변경하는 것을 제안한다.To this end, in the embodiment of the present invention, it is proposed to change the left eye glass and the right eye glass of any of the plurality of viewing apparatuses described above.

도 13b는 사용자의 위치, 즉, 3D 시청 장치(195)의 위치에 따라, 3D 오브젝트의 상이 맺히는 것을 설명하는 도면이다. FIG. 13B is a diagram for explaining that images of 3D objects are formed according to the position of the user, that is, the position of the 3D viewing apparatus 195.

도 13a와 비교하여, 제2 사용자의 좌안과 우안을 변경한 것에 그 차이가 있다. 한편, 제2 사용자의 좌안과 우안을 변경하는 것이 아닌, 제2 사용자가 착용한 3D 시청 장치의 좌안 글래스와 우안 글래스를 변경하는 것으로 한다.Compared with FIG. 13A, there is a difference between changing the left eye and the right eye of the second user. On the other hand, instead of changing the left and right eyes of the second user, the left eye glasses and the right eye glasses of the 3D viewing device worn by the second user are changed.

도면을 참조하면, 제1 오브젝트(1425)는, 도 13a와 같이, 제1 사용자와 제2 사용자 모두 제1 오브젝트(1425)가 디스플레이(180) 상에 위치 것으로 인식한다. Referring to the drawing, as shown in FIG. 13A, the first object 1425 recognizes that the first object 1425 is located on the display 180 in both the first user and the second user.

다음, 제2 오브젝트(1435)에 대해, 제1 사용자는, 좌안(1401)과 제2 좌안 영상(1431)을 연결하는 연장선, 및 우안(1403)과 제2 우안 영상(1433)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 즉, 도 13a와 같이, 제1 사용자는 제2 오브젝트(1435)가 디스플레이(180) 보다 앞에 위치하여, 돌출되어 보이는 것으로 인식한다. Next, with respect to the second object 1435, the first user may extend an extension line connecting the left eye 1401 and the second left eye image 1431, and an extension line connecting the right eye 1403 and the second right eye image 1433. At this point of intersection, it is perceived as an image forming. That is, as shown in FIG. 13A, the first user recognizes that the second object 1435 is located in front of the display 180 to protrude.

한편, 제2 오브젝트(1435)에 대해, 제2 사용자는, 좌안(1405)과 제2 좌안 영상(1431)을 연결하는 연장선, 및 우안(1407)과 제2 우안 영상(1433)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다.Meanwhile, with respect to the second object 1435, the second user may extend an extension line connecting the left eye 1405 and the second left eye image 1431, and an extension line connecting the right eye 1407 and the second right eye image 1433. At this point of intersection, it is perceived as an image forming.

도 13a에 비해, 제2 사용자의 좌안(1405)과 우안(1407)의 위치가 변경되었기에, 제2 사용자는 제2 오브젝트(1435)가 디스플레이(180) 보다 앞에 위치하여, 돌출되어 보이는 것으로 인식한다. Compared to FIG. 13A, since the positions of the left eye 1405 and the right eye 1407 of the second user are changed, the second user recognizes that the second object 1435 is located in front of the display 180 and appears to protrude. .

도 14는 본 발명의 일실시예에 따른 영상표시장치의 동작 방법을 보여주는 순서도이고, 도 15 내지 도 20은 본 발명의 일실시예에 따른 영상표시장치의 동작 방법을 설명하기 위해 참조되는 도면이다.14 is a flowchart illustrating a method of operating an image display apparatus according to an exemplary embodiment of the present invention, and FIGS. 15 to 20 are diagrams for describing an operating method of the image display apparatus according to an exemplary embodiment of the present invention. .

본 발명의 실시예에 따른 영상표시장치의 동작 방법은 적어도 하나의 소셜 네트워크 서비스(SNS)에 접속하는 단계(S1410)와 상기 접속된 소셜 네트워크 서비스에 업로드된 텍스트 또는 영상을 포함하는 데이터를 수신하는 단계(S1420)와 3차원(3D) 지도 영상을 수평으로 배치된 디스플레이에 표시하는 단계(S1430)를 포함한다. An operating method of an image display apparatus according to an embodiment of the present invention includes accessing at least one social network service (SNS) (S1410) and receiving data including text or an image uploaded to the connected social network service. In operation S1420, the method may include displaying the three-dimensional (3D) map image on a horizontally arranged display (S1430).

이후, 사용자에게 소셜 네트워크 서비스(SNS)의 화면을 구성하는 오브젝트들이 표시된다.(S1440)Thereafter, objects constituting the screen of the social network service (SNS) are displayed to the user (S1440).

본 발명의 일실시예에 따른 영상표시장치의 동작 방법은 오브젝트 표시 단계(S1140)에서 상기 데이터를 업로드한 회원(member)의 위치 정보에 기초하여, 상기 텍스트 또는 영상을 포함하는 오브젝트를 상기 3차원(3D) 지도 영상에 표시한다.According to an embodiment of the present invention, a method of operating an image display apparatus includes displaying an object including the text or an image based on location information of a member uploading the data in an object display step (S1140). (3D) It is displayed on the map image.

한편, 본 명세서에서 회원(member)은 소셜 네트워크 서비스를 통하여 사용자가 등록한 친구, 팔로워(follower), 즐겨찾기 등록된 대상으로 소셜 네트워크 서비스에 따라서 명칭과 설정 내용은 달라질 수 있다.Meanwhile, in the present specification, members are friends, followers, and favorites registered by a user through a social network service, and names and settings may be changed according to social network services.

한편, 상기 3차원(3D) 지도 영상은 3D 지구 영상일 수 있다. 수평으로 배치된 디스플레이(180)에 수평 방향에 수직하는 방향으로 3D 영상과 3D 지구본을 표시하여 보다 깊이와 현장감이 느껴지는 소셜 네트워크를 구축할 수 있다.The three-dimensional (3D) map image may be a 3D earth image. A 3D image and a 3D globe may be displayed on the display 180 arranged horizontally in a direction perpendicular to the horizontal direction to build a social network in which depth and presence are felt.

또한, 전 세계에 있는 트위터, 페이스북 등 소셜 네트워크 서비스의 지인들의 글을 테이블 형태의 3D 디스플레이에서 구현된 3D 지구 상에서 바로 확인할 수 있다.In addition, the posts of acquaintances of social network services such as Twitter, Facebook, etc. around the world can be read directly on the 3D earth, which is implemented in a table-shaped 3D display.

도 15 내지 도 16은 본 발명에 따라 소셜 네트워크 서비스에 접속한 화면의 예를 도시한 것이다.15 to 16 show examples of screens connected to a social network service according to the present invention.

상기 텍스트 또는 영상을 포함하는 오브젝트(1810, 1820, 1830)와 상기 데이터를 업로드한 회원을 나타내는 오브젝트(1610), 상기 데이터가 업로드된 소셜 네트워크 서비스를 나타내는 아이콘(1710, 1720)가 지도 이미지(1510) 위에 입체 영상으로 표시될 수 있다.Objects 1810, 1820, and 1830 including the text or image, an object 1610 representing a member who uploaded the data, and icons 1710 and 1720 representing a social network service to which the data is uploaded are map images 1510. ) May be displayed as a stereoscopic image.

영상표시장치(100)는 유무선 네트워크 연결을 통해 복수의 소셜 네트워크 서비스에 접속하고, 복수의 소셜 네트워크 서비스 또는 복수의 소셜 네트워크 서비스 내의 다른 사용자 또는 외부 장치에 기초한 정보를 디스플레이(180)에 표시하는 것이 가능하다. The video display device 100 connects to a plurality of social network services through a wired or wireless network connection, and displays information on the display 180 based on the plurality of social network services or other users or external devices in the plurality of social network services. It is possible.

실시예에 따라서는, 상기 접속할 소셜 네트워크 서비스(SNS)의 종류, 개수, 및, 로그인 정보를 설정하는 단계를 더 포함할 수 있고, 접속 단계(1110)는, 기설정된 로그인 정보에 기초하여 상기 적어도 하나의 소셜 네트워크 서비스(SNS)에 자동 로그인될 수 있다.According to an embodiment, the method may further include setting a type, number, and login information of the social network service (SNS) to be connected, and the accessing step 1110 may be based on the at least one set of login information. You can automatically log in to one social network service (SNS).

본 발명은 복수의 소셜 네트워크 서비스에 대해 접속할 수 있으며 접속할 소셜 네트워크 서비스(SNS)의 종류, 개수, 및, 로그인 정보를 설정할 수 있다. 트위터, 페이스북, 블로그(bolg), 메신저(messinger) 등의 다양한 소셜 네트워크 서비스 등이 가능하다. 로그인 정보는, 아이디(ID)와 패스워드(password)로 구분될 수 있다. The present invention can connect to a plurality of social network services and set the type, number, and login information of the social network services (SNS) to be connected. Various social network services such as Twitter, Facebook, blogs, and messengers are possible. The login information may be divided into an ID and a password.

이와 같이, 복수의 소셜 네트워크 서비스에 대한 로그인 정보를 미리 저장함으로써, 이후 소셜 네트워크 서비스 이용시, 별도의 로그인 절차 없이, 저장된 로그인 정보를 이용하여, 자동 로그인하고, 바로 접속할 수 있다.In this way, by storing the login information for the plurality of social network services in advance, it is possible to automatically log in using the stored login information and connect directly thereafter without using a separate login procedure when using the social network service.

본 발명에 따른 영상표시장치는 복수의 소셜 네트워크 서비스에 접속할 수 있을 뿐만 아니라 동시에 많은 게시물을 표시할 수 있어 모바일 기기나 다른 전자 기기보다 더욱 편리하게 소셜 네트워크 서비스를 이용할 수 있다.The video display device according to the present invention can access a plurality of social network services as well as display a large number of posts at the same time, so that a social network service can be used more conveniently than a mobile device or other electronic device.

사용자의 설정에 따라서 상기 텍스트 또는 영상을 포함하는 오브젝트(1810, 1820, 1830)가 도 16과 같이 표시될 수 있고, 도 15와 같이 업로드된 데이터의 개수 정보(1730) 만을 보여주는 숨김 상태일 수 있다. 도면에서는 점선으로 표시 상태가 다름을 간략히 표현하였다.According to a user's setting, the objects 1810, 1820, and 1830 including the text or the image may be displayed as shown in FIG. 16, and may be in a hidden state showing only the number information 1730 of the uploaded data as shown in FIG. 15. . In the drawings, the display state is briefly represented by a dotted line.

한편, 사용자가 최근에 소셜 네트워크 서비스에 접속했던 시간 이후에 업로드된 텍스트 또는 영상을 포함하는 오브젝트(1830)는 다른 오브젝트(1810, 1820)와 상이한 크기 또는 색상으로 표시될 수 있다.Meanwhile, the object 1830 including the text or the image uploaded after the time when the user recently accessed the social network service may be displayed in a different size or color than the other objects 1810 and 1820.

한편, 표시되는 오브젝트의 개수는 사용자의 선택에 따라 가변될 수 있다. 예를 들어, 소정 기간 내에 업로드된 내용을 표시하거나, 최대 표시 개수를 설정해두거나, 이전 접속 이후의 업로드 내용이 표시되도록 설정할 수 있다.The number of displayed objects may vary according to the user's selection. For example, the uploaded content may be displayed within a predetermined period, the maximum display number may be set, or the uploaded content since the previous connection may be displayed.

한편, 상기 위치 정보는 상기 회원의 현재 위치이거나, 상기 데이터가 업로드된 지역이거나, 상기 회원의 설정 정보에 저장된 정보일 수 있다. The location information may be a current location of the member, an area in which the data is uploaded, or information stored in setting information of the member.

실시예에 따라서는 본 발명의 일실시예에 따른 영상표시장치의 동작 방법은 상기 위치 정보를 수신하는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the operation method of the image display apparatus according to the exemplary embodiment may further include receiving the location information.

즉, GPS(Global Positioning System) 기반의 위치 정보를 수신하여 회원이 현재 있는 지역 정보를 표시할 수 있다. 또한, 회원이 상기 데이터를 업로드한 지역에 기초하여 표시할 수도 있으며, 회원 자신의 프로필 설정 정보에 등록시켜둔 지역 정보에 기초할 수 있다.That is, by receiving the GPS (Global Positioning System) based location information can display the current information of the region of the member. In addition, it may be displayed based on the region in which the member uploaded the data, or may be based on region information registered in the member's own profile setting information.

본 발명의 일실시예에 따른 영상표시장치의 동작 방법은 오브젝트 표시 단계(S1140)에서 상기 데이터를 업로드한 회원(member)의 위치 정보에 기초하여, 상기 3차원(3D) 지도 영상에 상기 텍스트 또는 영상을 포함하는 오브젝트를 표시할 위치를 결정하고, 상기 표시하는 위치에 따라 상기 오브젝트의 기울기(slope)를 상이하게 표시할 수 있다.According to an embodiment of the present invention, a method of operating an image display apparatus includes displaying the text or the text on the three-dimensional (3D) map image based on location information of a member uploading the data in an object display step (S1140). A position to display an object including an image may be determined, and a slope of the object may be displayed differently according to the displayed position.

도 17a 내지 도 17c를 살펴보면, 수평으로 배치된 디스플레이(182)에 3D 지구 이미지(1520)가 표시되고, 업로드한 회원 또는 등록된 회원의 위치 정보에 기초하여 3D 지구 이미지(1520) 상에 회원들의 위치(1620, 1630) 및 업로드된 텍스트 및 영상을 포함하는 오브젝트(1840)가 표시된다.17A to 17C, the 3D earth image 1520 is displayed on a horizontally arranged display 182, and members of the 3D earth image 1520 are displayed on the 3D earth image 1520 based on the location information of the uploaded or registered member. Locations 1620 and 1630 and objects 1840 including uploaded text and images are displayed.

오브젝트가 표시되는 위치에 기초하여 오브젝트(1850)는 사용자가 읽기 편한 각도로 소정 기울기를 가지는 3D 오브젝트로 표시될 수 있다.Based on the position where the object is displayed, the object 1850 may be displayed as a 3D object having a predetermined tilt at an angle that is easy for a user to read.

한편, 실시예에 따라서는, 3D 시청장치의 위치 정보를 수신하는 단계를 더 포함하고, 상기 텍스트 또는 영상을 포함하는 오브젝트는 상기 3D 시청장치의 위치에 따라 기울기(slope)가 상이하게 표시될 수 있다.Meanwhile, according to an exemplary embodiment, the method may further include receiving location information of the 3D viewing apparatus, and the object including the text or the image may have different slopes according to the position of the 3D viewing apparatus. have.

3D 시청장치는 신호 송수신을 지속적으로 수행하고 있으므로 용이하게 위치를 파악할 수 있다.Since the 3D viewing apparatus continuously performs signal transmission and reception, the 3D viewing apparatus can easily identify the position.

업로드한 회원의 위치 정보에 따라 결정되는 오브젝트가 표시되는 위치와 3D 시청장치의 위치 정보에 기초하여 기울기를 가변함으로써, 사용자가 가장 읽기 편한 각도로 최적화하여 표시할 수 있다.By changing the inclination based on the position at which the object determined according to the uploaded member's position information is displayed and the position information of the 3D viewing apparatus, the user can optimize the display at an angle that is most comfortable to read.

또는, 사용자의 위치를 감지하는 단계를 더 포함하고, 상기 기울기(slope)는 상기 감지된 위치와 상기 오브젝트의 거리에 비례하여 증가될 수 있다. 사용자의 위치, 제스처를 센싱하는 센서부(160)가 사용자의 위치를 감지하고 이를 반영하여 3D 오브젝트의 표시 기울기를 조정할 수 있다.Alternatively, the method may further include detecting a location of the user, wherein the slope may be increased in proportion to the distance between the detected location and the object. The sensor unit 160 that senses the user's location and gesture may detect the user's location and reflect the user's location to adjust the display inclination of the 3D object.

특히, 수평으로 배치된 디스플레이(182)는 사용자의 위치에 따라 다른 영상을 보내거나 다른 신호 송수신이 이루어질 수 있다. 따라서, 사용자의 위치에 따라 오브젝트 표시를 최적화할 수 있다.In particular, the horizontally arranged display 182 may transmit different images or transmit and receive different signals according to the position of the user. Therefore, the object display can be optimized according to the position of the user.

한편, 상기 오브젝트는 기설정된 우선순위에 따라 돌출 또는 함몰되어 보이는 깊이(depth)가 상이하게 표시될 수 있다.On the other hand, the object may be displayed differently in the depth (depth) seen protruded or recessed according to a predetermined priority.

본 발명의 다른 실시예에 따른 영상표시장치의 동작 방법은 오브젝트 표시 단계(S1140)에서 상기 데이터를 업로드한 회원(member)의 위치 정보와 기설정된 우선순위에 기초하여, 상기 텍스트 또는 영상을 포함하는 오브젝트를, 3차원(3D) 지도 영상(1530)의 상이한 위치에 상이한 깊이(depth)를 가지는 3D 영상으로 표시할 수 있다.According to another aspect of the present invention, there is provided a method of operating an image display apparatus including the text or an image based on location information and a predetermined priority of a member uploading the data in an object display step (S1140). The object may be displayed as a 3D image having different depths at different positions of the 3D map image 1530.

상기 텍스트 또는 영상을 포함하는 오브젝트는 기설정된 우선순위에 따라 돌출 또는 함몰되어 보이는 깊이(depth)가 상이하게 표시될 수 있다. 이 경우에, 상기 텍스트 또는 영상을 포함하는 오브젝트는 상기 우선순위가 높을수록 돌출 또는 함몰되어 보이는 깊이(depth)가 클 수 있다.The object including the text or the image may be displayed with different depths, which are protruded or recessed according to a predetermined priority. In this case, the object including the text or the image may have a greater depth when it is protruded or recessed as the priority is higher.

도 18a와 도 18b를 살펴보면, 우선 순위가 높은 오브젝트(1850)는 A만큼, 우선 순위가 중간인 오브젝트(1860)는 B만큼, 우선 순위가 낮은 오브젝트(1870)는 C만큼, 돌출되어 보이는 깊이가 설정될 수 있다.18A and 18B, an object 1850 having a high priority is as high as A, an object 1860 having a medium priority is as high as B, and an object 1870 having a lower priority as high as C is protruded. Can be set.

우선 순위는 사용자가 설정할 수 있다. 예를 들어, 우선 순위는 데이터의 중요도, 회원 등급, 업로드된 시간 순서일 수 있다.The priority can be set by the user. For example, the priority may be the order of importance of the data, the membership class, and the uploaded time.

또한, 상기 텍스트 또는 영상을 포함하는 오브젝트는 상기 표시되는 위치에 따라 기울기(slope)가 상이하게 표시될 수 있고, 사용자의 위치 또는 3D 시청장치의 위치 정보에 따라 기울기(slope)가 상이하게 표시될 수 있다.In addition, slopes may be differently displayed according to the displayed position of the object including the text or the image, and slopes may be differently displayed according to the location of the user or the location information of the 3D viewing apparatus. Can be.

도 19는 원격제어장치(200)를 이용하여 도 18a의 3D 지도 영상, 지구 오브젝트(1530)를 회전시키는 예를 도시한 것이다. 원격제어장치(200)를 회전시키면 지구 오브젝트가 회전한다. 그에 따라 3D 지도 영상, 지구 오브젝트(1530) 위에 표시되고 있던 오브젝트(1850, 1860, 1870) 역시 같이 회전하게 되고, 사용자는 다른 지역의 오브젝트를 확인할 수 있다. FIG. 19 illustrates an example of rotating the 3D map image and earth object 1530 of FIG. 18A using the remote controller 200. Rotating the remote control device 200 rotates the earth object. Accordingly, the objects 1850, 1860, and 1870 displayed on the 3D map image and the earth object 1530 are also rotated together, and the user can check objects of other regions.

도 20a 내지 도 20b는 원격제어장치를 이용한 줌인 또는 줌아웃의 예를 보여준다. 20A to 20B show examples of zooming in or zooming out using a remote control apparatus.

도 20a는, 복수의 회원 정보(1650, 1670, 1680)와 데이터를 포함하는 오브젝트(1880, 1890)들이 지도 이미지(1910) 상에 표시되는 것을 도시한다. 그리고, 원격제어장치(200)가 디스플레이(182)로부터 멀어지는 동작이 수행되는 것을 예시한다.FIG. 20A illustrates that objects 1880 and 1890 including a plurality of member information 1650, 1670, and 1680 and data are displayed on a map image 1910. In addition, the remote control apparatus 200 illustrates that an operation away from the display 182 is performed.

제어부(170)는, 원격제어장치(200)의 이동 동작에 따라, 선택 영역을 줌 인 하도록 제어한다. 선택 영역은 원격제어장치(200)의 포인터 등에 의해 선택될 수 있다. The controller 170 controls to zoom in on the selection area according to the movement operation of the remote control apparatus 200. The selection area may be selected by a pointer or the like of the remote control apparatus 200.

구체적으로, 자이로 센서(241)를 통해, 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱하거나, 가속도 센서(243)를 통해 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱하거나, 거리측정센서(미도시)를 더 구비하여, 원격제어장치(200)와 디스플레이(182) 사이의 거리를 센싱할 수 있다.Specifically, through the gyro sensor 241, the information on the operation of the remote control device 200 is sensed based on the x, y, z axis, or the movement speed of the remote control device 200 through the acceleration sensor 243. Sensing information about the display device, or further including a distance measuring sensor (not shown), the distance between the remote control device 200 and the display 182 may be sensed.

디스플레이(180)에서 접근하거나 멀어지도록 이동되는 것에 의해, 각각 줌인 또는 줌아웃이 수행될 수 있다. 이 경우, 원격제어장치(200)의 상하, 좌우 이동의 인식은 배제하고, 디스플레이에서 멀어지거나 접근하도록 이동하는 즉, 앞뒤 이동만 인식되도록 할 수 있다.By being moved to approach or move away from the display 180, zoom in or zoom out may be performed, respectively. In this case, the remote control apparatus 200 may exclude recognition of the vertical movement of the remote controller 200 and move away from the display, that is, only the front and rear movements may be recognized.

도 20b는, 줌인되어 확대된 지도 이미지(1920)가 표시되는 것을 예시한다. 이에 의해, 사용자는 관련 정보를 용이하게 파악할 수 있게 된다.20B illustrates that a zoomed-in and enlarged map image 1920 is displayed. As a result, the user can easily grasp related information.

한편, 상기 도면들은 지면을 향하는 방향과 반대 방향으로 돌출되어 보이도록 양의 깊이를 가지는 3D 영상을 위주로 예시하였으나, 지면을 향하는 방향과 반대되는 방향으로 함몰되어 보이는 음의 깊이를 가지는 3D 영상에도 본 발명의 실시예들이 적용될 수 있음을 알 수 있을 것이다.Meanwhile, the drawings mainly exemplify a 3D image having a positive depth so as to protrude in a direction opposite to the direction toward the ground, but also shown in a 3D image having a negative depth seen to sink in a direction opposite to the direction toward the ground. It will be appreciated that embodiments of the invention may be applied.

본 발명에 따르면, 복수의 소셜 네트워크 서비스에 접속할 수 있을 뿐만 아니라 동시에 많은 게시물을 표시할 수 있어 모바일 기기나 다른 전자 기기보다 더욱 편리하게 소셜 네트워크 서비스를 이용할 수 있다.According to the present invention, not only can access a plurality of social network services, but also can display many posts at the same time, so that the social network services can be used more conveniently than mobile devices or other electronic devices.

또한, 지도 이미지 위에 업로드된 내용을 소정 기준에 따라 표시함으로써, 많은 정보를 더욱 효율적으로 이용할 수 있고, 등록된 친구 회원들의 위치정보를 하나의 화면에서 동시에 파악할 수 있다.In addition, by displaying the content uploaded on the map image according to a predetermined criterion, a lot of information can be used more efficiently, and the location information of registered friend members can be simultaneously grasped on one screen.

본 발명에 따른 영상표시장치 및 그 동작 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The image display apparatus and its operation method according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or part of each embodiment so that various modifications can be made. May be optionally combined.

한편, 본 발명의 영상표시장치의 동작방법은 영상표시기기에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the operating method of the image display device of the present invention can be implemented as a processor-readable code on a processor-readable recording medium provided in the image display device. The processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. . The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
In addition, while the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, but the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

100 : 영상표시장치
170 : 제어부
180 : 디스플레이
195 : 3D 시청장치
200 : 원격제어장치
100: video display device
170:
180: display
195: 3D viewing device
200: remote control device

Claims (20)

적어도 하나의 소셜 네트워크 서비스(SNS)에 접속하는 단계;
상기 접속된 소셜 네트워크 서비스에 업로드된 텍스트 또는 영상을 포함하는 데이터를 수신하는 단계;
3차원(3D) 지도 영상을 수평으로 배치된 디스플레이에 표시하는 단계; 및,
상기 데이터를 업로드한 회원(member)의 위치 정보에 기초하여, 상기 텍스트 또는 영상을 포함하는 오브젝트를 상기 3차원(3D) 지도 영상에 표시하는 단계;를 포함하는 영상표시장치의 동작 방법.
Accessing at least one social network service (SNS);
Receiving data including text or video uploaded to the connected social network service;
Displaying a three-dimensional (3D) map image on a horizontally arranged display; And,
Displaying an object including the text or an image on the three-dimensional (3D) map image based on the location information of the member uploading the data.
제1항에 있어서,
상기 위치 정보를 수신하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
And receiving the position information.
제1항에 있어서,
상기 위치 정보는 상기 회원의 현재 위치이거나, 상기 데이터가 업로드된 지역이거나, 상기 회원의 설정 정보에 저장된 정보인 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
And the location information is the current location of the member, the area where the data is uploaded, or information stored in the member's setting information.
제1항에 있어서,
상기 오브젝트 표시 단계는 상기 데이터가 업로드된 소셜 네트워크 서비스를 나타내는 아이콘을 더 표시하는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
The object displaying step may further include displaying an icon representing a social network service to which the data is uploaded.
제4항에 있어서,
상기 텍스트 또는 영상을 포함하는 오브젝트는 기설정된 우선순위에 따라 돌출 또는 함몰되어 보이는 깊이(depth)가 상이하게 표시되는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 4, wherein
And an object including the text or an image is displayed with different depths of protrusion or depression according to a predetermined priority.
제1항에 있어서,
상기 오브젝트 표시 단계는 상기 업로드한 회원을 나타내는 오브젝트를 더 표시하는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
The object displaying step may further include displaying an object representing the uploaded member.
제1항에 있어서,
상기 텍스트 또는 영상을 포함하는 오브젝트는 표시되는 위치에 따라 기울기(slope)가 상이하게 표시되는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
And a slope of the object including the text or the image is displayed differently according to the displayed position.
제1항에 있어서,
3D 시청장치의 위치 정보를 수신하는 단계;를 더 포함하고,
상기 텍스트 또는 영상을 포함하는 오브젝트는 상기 3D 시청장치의 위치에 따라 기울기(slope)가 상이하게 표시되는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
Receiving location information of the 3D viewing apparatus;
And a slope of the object including the text or the image is displayed differently according to the position of the 3D viewing apparatus.
제1항에 있어서,
상기 3차원(3D) 지도 영상은 3D 지구 영상인 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
And the 3D map image is a 3D earth image.
제1항에 있어서,
상기 접속할 소셜 네트워크 서비스(SNS)의 종류, 개수, 및, 로그인 정보를 설정하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
And setting a type, number, and login information of the social network service (SNS) to be accessed.
제1항에 있어서,
상기 접속 단계는, 기설정된 로그인 정보에 기초하여 상기 적어도 하나의 소셜 네트워크 서비스(SNS)에 자동 로그인되는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 1,
The access step, the operation method of the image display device, characterized in that the automatic login to the at least one social network service (SNS) based on the predetermined login information.
적어도 하나의 소셜 네트워크 서비스(SNS)에 접속하는 단계;
상기 접속된 소셜 네트워크 서비스에 업로드된 텍스트 또는 영상을 포함하는 데이터를 수신하는 단계;
3차원(3D) 지도 영상을 수평으로 배치된 디스플레이에 표시하는 단계; 및,
상기 데이터를 업로드한 회원(member)의 위치 정보에 기초하여, 상기 3차원(3D) 지도 영상에 상기 텍스트 또는 영상을 포함하는 오브젝트를 표시할 위치를 결정하고, 상기 표시하는 위치에 따라 상기 오브젝트의 기울기(slope)를 상이하게 표시하는 단계;를 포함하는 영상표시장치의 동작 방법.
Accessing at least one social network service (SNS);
Receiving data including text or video uploaded to the connected social network service;
Displaying a three-dimensional (3D) map image on a horizontally arranged display; And,
Based on the location information of the member uploading the data, a position to display the object including the text or the image on the three-dimensional (3D) map image is determined, and the position of the object according to the displayed position And displaying slopes differently.
제12항에 있어서,
사용자의 위치를 감지하는 단계;를 더 포함하고,
상기 기울기(slope)는 상기 감지된 위치와 상기 오브젝트의 거리에 비례하여 증가되는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 12,
Detecting the location of the user;
And wherein the slope is increased in proportion to a distance between the detected position and the object.
제12항에 있어서,
상기 오브젝트는 기설정된 우선순위에 따라 돌출되어 보이는 깊이(depth)가 상이하게 표시되는 것을 특징으로 하는 영상표시장치의 동작 방법.
The method of claim 12,
And the depth of the object is differently displayed according to a predetermined priority.
적어도 하나의 소셜 네트워크 서비스(SNS)에 접속하는 단계;
상기 접속된 소셜 네트워크 서비스에 업로드된 텍스트 또는 영상을 포함하는 데이터를 수신하는 단계;
3차원(3D) 지도 영상을 수평으로 배치된 디스플레이에 표시하는 단계; 및,
상기 데이터를 업로드한 회원(member)의 위치 정보와 기설정된 우선순위에 기초하여, 상기 텍스트 또는 영상을 포함하는 오브젝트를, 상기 3차원(3D) 지도 영상의 상이한 위치에 상이한 깊이(depth)를 가지는 3D 영상으로 표시하는 단계;를 포함하는 영상표시장치의 동작 방법.
Accessing at least one social network service (SNS);
Receiving data including text or video uploaded to the connected social network service;
Displaying a three-dimensional (3D) map image on a horizontally arranged display; And,
An object including the text or an image has different depths at different positions of the 3D map image based on the position information of the member who uploaded the data and a predetermined priority. Displaying a 3D image; Method of operating a video display device comprising a.
제15항에 있어서,
상기 오브젝트 표시 단계는 상기 업로드한 회원을 나타내는 오브젝트를 더 표시하는 것을 특징으로 하는 영상표시장치의 동작 방법.
16. The method of claim 15,
The object displaying step may further include displaying an object representing the uploaded member.
제15항에 있어서,
상기 텍스트 또는 영상을 포함하는 오브젝트는 상기 우선순위가 높을수록 돌출 또는 함몰되어 보이는 깊이(depth)가 큰 것을 특징으로 하는 영상표시장치의 동작 방법.
16. The method of claim 15,
And an object including the text or an image has a larger depth of being protruded or recessed as the priority is higher.
제15항에 있어서,
상기 텍스트 또는 영상을 포함하는 오브젝트는 상기 표시되는 위치에 따라 기울기(slope)가 상이하게 표시되는 것을 특징으로 하는 영상표시장치의 동작 방법.
16. The method of claim 15,
And a slope of the object including the text or the image is displayed differently according to the displayed position.
제15항에 있어서,
사용자의 위치를 감지하는 단계;를 더 포함하고,
상기 기울기(slope)는 상기 감지된 위치와 상기 오브젝트의 거리에 비례하여 증가되는 것을 특징으로 하는 영상표시장치의 동작 방법.
16. The method of claim 15,
Detecting the location of the user;
And wherein the slope is increased in proportion to a distance between the detected position and the object.
제15항에 있어서,
3D 시청장치의 위치 정보를 수신하는 단계;를 더 포함하고,
상기 텍스트 또는 영상을 포함하는 오브젝트는 상기 3D 시청장치의 위치에 따라 기울기(slope)가 상이하게 표시되는 것을 특징으로 하는 영상표시장치의 동작 방법.
16. The method of claim 15,
Receiving location information of the 3D viewing apparatus;
And a slope of the object including the text or the image is displayed differently according to the position of the 3D viewing apparatus.
KR1020100077927A 2010-08-11 2010-08-12 Method for operating an apparatus for displaying image KR20120015652A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020100077927A KR20120015652A (en) 2010-08-12 2010-08-12 Method for operating an apparatus for displaying image
EP11176388.4A EP2418866A3 (en) 2010-08-11 2011-08-03 Method for operating image display apparatus
US13/197,474 US20120056875A1 (en) 2010-08-11 2011-08-03 Method for operating image display apparatus
CN2011103408517A CN102378033A (en) 2010-08-11 2011-08-08 Method for operating image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100077927A KR20120015652A (en) 2010-08-12 2010-08-12 Method for operating an apparatus for displaying image

Publications (1)

Publication Number Publication Date
KR20120015652A true KR20120015652A (en) 2012-02-22

Family

ID=45838269

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100077927A KR20120015652A (en) 2010-08-11 2010-08-12 Method for operating an apparatus for displaying image

Country Status (1)

Country Link
KR (1) KR20120015652A (en)

Similar Documents

Publication Publication Date Title
KR101627214B1 (en) Image Display Device and Operating Method for the Same
CN102164297B (en) Image display device, 3d viewing device, and method for operating the same
EP2429202A2 (en) Image display apparatus and method for operating image display apparatus
KR101349276B1 (en) Video display device and operating method therefor
EP2418866A2 (en) Method for operating image display apparatus
KR20110052771A (en) Image display device and operating method for the same
KR20110123154A (en) Method for operating an apparatus for displaying image
KR20110082380A (en) Apparatus for displaying image and method for operating the same
KR101702949B1 (en) Method for operating an apparatus for displaying image
KR20110052308A (en) Apparatus for displaying image and method for operating the same
KR20120034996A (en) Image display apparatus, and method for operating the same
KR101708692B1 (en) Image display apparatus and method for operating the same
KR20120027815A (en) Apparatus for displaying image and method for operating the same
KR101730424B1 (en) Image display apparatus and method for operating the same
KR101730323B1 (en) Apparatus for viewing image image display apparatus and method for operating the same
KR20120062428A (en) Image display apparatus, and method for operating the same
KR20120015652A (en) Method for operating an apparatus for displaying image
KR101730423B1 (en) Apparatus for displaying image and method for operating the same
KR20120034836A (en) Image display apparatus, and method for operating the same
KR101176500B1 (en) Image display apparatus, and method for operating the same
KR20110134087A (en) Image display apparatus and method for operating the same
KR101737367B1 (en) Image display apparatus and method for operating the same
KR20120027816A (en) Apparatus for displaying image and method for operating the same
KR101691801B1 (en) Multi vision system
KR20110133296A (en) Apparatus for viewing 3d image and method for operating the same

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination