KR20130123679A - Video confenrece apparatus, and method for operating the same - Google Patents

Video confenrece apparatus, and method for operating the same Download PDF

Info

Publication number
KR20130123679A
KR20130123679A KR1020120046989A KR20120046989A KR20130123679A KR 20130123679 A KR20130123679 A KR 20130123679A KR 1020120046989 A KR1020120046989 A KR 1020120046989A KR 20120046989 A KR20120046989 A KR 20120046989A KR 20130123679 A KR20130123679 A KR 20130123679A
Authority
KR
South Korea
Prior art keywords
shared
captured image
shared content
item
control
Prior art date
Application number
KR1020120046989A
Other languages
Korean (ko)
Other versions
KR101920641B1 (en
Inventor
임진성
백승민
김광택
고한영
원종필
하주호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120046989A priority Critical patent/KR101920641B1/en
Publication of KR20130123679A publication Critical patent/KR20130123679A/en
Application granted granted Critical
Publication of KR101920641B1 publication Critical patent/KR101920641B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Abstract

The present invention relates to a video reference apparatus and an operation method for the same. The operation method of the video reference apparatus according to the embodiment of the present invention comprises the steps of: receiving a photographed image; performing signal processing such that received share content is included in the photographed image; performing signal processing such that a control object capable of controlling the share content is included in the photographed image; and performing a corresponding operation for the share content on the basis of the selection input of a predetermined item within the control object. Thus, use convenience can be improved. [Reference numerals] (AA) Start;(BB) No;(CC) Yes;(DD) End;(S710) Transmit photographed image including sharing object outside;(S720) Register sharing object?;(S730) Signal process predetermined object in photographed image to sharing object;(S740) Transmit photographed image including sharing object outside;(S750) Receive sharing contents;(S760) Signal process for received sharing contents to be included in photographed image;(S770) Transmit photographed image including sharing object outside;(S780) Signal process for control object controlling sharing contents to be included in photographed image;(S790) Perform the given motion based on selection input of the predetermined item in control object

Description

화상회의장치, 및 그 동작방법{Video confenrece apparatus, and method for operating the same}Video conferencing apparatus, and method for operating the same

본 발명은 화상회의장치, 및 그 동작방법에 관한 것이며, 더욱 상세하게는 사용자의 이용 편의성을 향상시킬 수 있는 화상회의장치, 및 그 동작방법에 관한 것이다.TECHNICAL FIELD The present invention relates to a videoconferencing apparatus and a method of operating the same, and more particularly, to a videoconferencing apparatus capable of improving user convenience and a method of operating the same.

화상회의장치는, 화상 회의를 할 수 있도록 신호 처리를 수행하는 장치이다. 즉, 촬영된 영상, 음성을 상대방 화상회의장치에 송신하고, 상대방 회의장치로부터 촬영된 영상, 음성을 수신한다.A videoconferencing apparatus is a device which performs signal processing so that videoconferencing can be performed. That is, the captured video and audio are transmitted to the counterpart video conference apparatus, and the video and audio captured from the counterpart conference apparatus are received.

한편, 화상회의 시, 촬영된 영상, 음성 외에 다양한 데이터를 공유하는 경우가 발생하며, 이를 위해, 화상회의장치는, 공유할 데이터를 상대방 회의장치에 별도로 전송하게 된다. On the other hand, during video conferencing, there are cases where various data other than the captured video and audio are shared. For this purpose, the video conferencing apparatus separately transmits data to be shared to the counterpart conference apparatus.

본 발명의 목적은, 사용자의 이용 편의성을 향상시킬 수 있는 화상회의장치, 및 그 동작방법을 제공함에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a video conference apparatus and a method of operating the same, which can improve user convenience.

또한, 본 발명의 다른 목적은, 공유할 컨텐츠를 촬영 영상에 포함시켜 전송할 수 있는 화상회의장치, 및 그 동작방법을 제공함에 있다.Another object of the present invention is to provide a videoconferencing apparatus capable of including and transmitting content to be shared in a captured image, and an operation method thereof.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 화상회의장치의 동작방법은, 촬영 영상을 수신하는 단계와, 수신되는 공유 컨텐츠를 촬영 영상 내에 포함되도록 신호 처리하는 단계와, 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 촬영 영상 내에 포함되도록 신호 처리하는 단계와, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of operating a videoconferencing apparatus, the method including receiving a captured image, signal processing the received shared content to be included in the captured image, and controlling the shared content. And processing a signal so that the control object may be included in the captured image, and performing a corresponding operation on the shared content based on a selection input of a predetermined item in the control object.

또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 화상회의장치의 동작방법은, 촬영 영상을 수신하는 단계와, 수신되는 공유 컨텐츠를 촬영 영상 내에 포함되도록 신호 처리하는 단계와, 공유 오브젝트를 포함하는 촬영 영상을 외부로 전송하는 단계와, 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 촬영 영상 내에 포함되도록 신호 처리하는 단계와, 공유 컨텐츠를 포함하는 촬영 영상을 외부로 전송하는 단계를 포함한다.In addition, an operation method of a videoconferencing apparatus according to an embodiment of the present invention for achieving the above object, the step of receiving a captured image, the signal processing to include the received shared content in the captured image, and the shared object The method may include transmitting a captured image to an external device, signal processing a control object capable of controlling shared content to be included in the captured image, and transmitting the captured image including the shared content to the outside.

또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 화상회의장치는, 촬영부와, 사용자 입력을 수신하는 사용자 입력 인터페이스부와; 수신되는 공유 컨텐츠를 촬영 영상 내에 포함되도록 신호처리하고, 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 촬영 영상 내에 포함되도록 신호 처리하며, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행하도록 제어하는 제어부를 포함한다.In addition, a video conferencing apparatus according to an embodiment of the present invention for achieving the above object, the photographing unit, and a user input interface unit for receiving a user input; The received shared content is signaled to be included in the captured image, the control object capable of controlling the shared content is signaled to be included in the captured image, and based on a selection input of a predetermined item in the control object, the corresponding to the shared content. It includes a control unit for controlling to perform the operation.

본 발명의 실시예에 따르면, 화상회의장치는, 촬영 영상 내에, 공유 컨텐츠가 포함되도록 신호 처리를 수행하고, 공유 컨텐츠를 포함하는 촬영 영상을, 네트워크를 통해 상대측의 화상회의장치로, 전송할 수 있다. 이에 따라, 촬영 영상과 공유 컨텐츠를 별도로 전송하는 종래의 방식에 비해, 데이터 전송량을 상당히 줄일 수 있게 되며, 그 전송 속도도 상당히 향상될 수 있다.According to an embodiment of the present invention, the videoconferencing apparatus may perform signal processing so that the shared content is included in the captured video, and transmit the captured video including the shared content to the videoconferencing device on the other side via the network. . Accordingly, compared with the conventional method of separately transmitting the captured image and the shared content, the data transmission amount can be significantly reduced, and the transmission speed can be significantly improved.

한편, 본 발명의 실시예에 따르면, 화상회의장치는, 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트를 생성하여, 촬영 영상 내에 포함되도록 신호 처리를 수행하고, 컨트롤 오브젝트를 포함하는 촬영 영상을, 네트워크를 통해 상대측의 화상회의장치로, 전송할 수 있다. 이에 따라, 촬영 영상과 컨트롤 오브젝트를 별도로 전송하는 종래의 방식에 비해, 데이터 전송량을 상당히 줄일 수 있게 된다.On the other hand, according to an embodiment of the present invention, the video conferencing device generates a control object capable of controlling shared content, performs signal processing to be included in the captured image, and captures a captured image including the control object in a network. Through the video conferencing device on the other side, transmission can be performed. Accordingly, compared with the conventional method of separately transmitting the captured image and the control object, the data transmission amount can be considerably reduced.

한편, 본 발명의 실시예에 따르면, 화상회의장치는, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행함으로써, 사용자의 이용 편의성을 증대시킬 수 있게 된다.On the other hand, according to an embodiment of the present invention, the video conferencing apparatus can increase the user's convenience by performing a corresponding operation on the shared content based on the selection input of a predetermined item in the control object.

도 1은 본 발명의 실시예에 따른 화상회의 시스템을 도시한 도면이다.
도 2a 내지 도 2b는 본 발명의 일실시예에 따른 화상회의장치의 내부 블록도이다.
도 3은 본 발명의 다른 실시예에 따른 화상회의장치의 내부 블록도이다.
도 4는 도 3의 제어부의 내부 블록도이다.
도 5는 도 3의 원격제어장치의 제어 방법을 도시한 도면이다.
도 6은 도 3의 원격제어장치의 내부 블록도이다.
도 7은 본 발명의 일실시예에 따른 화상회의장치의 동작방법을 보여주는 순서도이다.
도 8 내지 14e는 도 7 또는 도 9의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
도 15는 본 발명의 다른 실시예에 따른 화상회의장치의 동작방법을 보여주는 순서도이다.
1 is a diagram illustrating a videoconferencing system according to an embodiment of the present invention.
2A to 2B are internal block diagrams of a videoconferencing apparatus according to an embodiment of the present invention.
3 is an internal block diagram of a videoconferencing apparatus according to another embodiment of the present invention.
4 is an internal block diagram of the control unit of FIG.
5 is a diagram showing a control method of the remote control apparatus of FIG.
Fig. 6 is an internal block diagram of the remote control device of Fig. 3; Fig.
7 is a flowchart illustrating a method of operating a videoconferencing apparatus according to an embodiment of the present invention.
8 to 14E are views referred to for describing various examples of the operation method of FIG. 7 or 9.
15 is a flowchart illustrating a method of operating a videoconferencing apparatus according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.

도 1은 본 발명의 실시예에 따른 화상회의 시스템을 도시한 도면이다.1 is a diagram illustrating a videoconferencing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 의한, 화상회의 시스템(10)은, 서로 화상 데이터를 교환할 수 있는 제1 화상회의장치(50a), 및 제2 화상회의장치(50b)를 포함할 수 있다. 그 외, 제1 화상회의장치(50a)에서 신호 처리된 영상을 표시할 수 있는 제1 영상표시장치(100a)와, 제2 화상회의장치(50b)에서 신호 처리된 영상을 표시할 수 있는 제2 영상표시장치(100b)를 더 포함할 수 있다.Referring to FIG. 1, the videoconferencing system 10 according to an embodiment of the present invention includes a first videoconferencing device 50a and a second videoconferencing device 50b capable of exchanging image data with each other. It may include. In addition, the first video display device 100a capable of displaying an image processed by the first video conferencing device 50a and the second video conference device 50b may display an image processed by the second video conferencing device 50b. 2 may further include an image display device (100b).

본 발명의 실시예에 따른, 제1 화상회의장치(50a)는, 촬영부(195a)를 구비할 수 있으며, 촬영부(195a)에서 촬영된 영상을 신호 처리하여, 외부로 전송할 수 있다. 구체적으로, 네트워크(500)를 통해 상대측인 제2 화상회의장치(50b)로, 촬영 영상을 전송할 수 있다. 역으로, 제2 화상회의장치(50b)도, 촬영부(195b)를 구비할 수 있으며, 촬영부(195b)에서 촬영된 영상을 신호 처리하여, 네트워크(500)를 통해 제1 화상회의장치(50a)로 전송할 수 있다. According to an embodiment of the present invention, the first video conferencing device 50a may include a photographing unit 195a, and may process an image photographed by the photographing unit 195a and transmit the signal to the outside. In detail, the captured image may be transmitted to the second video conference apparatus 50b on the opposite side through the network 500. On the contrary, the second video conferencing device 50b may also include a capturing unit 195b, and processes the image captured by the capturing unit 195b to process the first video conferencing device (via the network 500). 50a).

한편, 제1 화상회의장치(50a)는, 랩탑 컴퓨터(600) 등의 외부 장치로부터, 컨텐츠를 수신할 수 있다. 수신되는 컨텐츠가, 화상 회의 상대방과 공유할 수 있는 공유 컨텐츠인 경우, 제1 화상회의장치(50a)는, 이러한 공유 컨텐츠를 네트워크(500)를 통해 상대측인 제2 화상회의장치(50b)로, 전송할 수 있다.On the other hand, the first video conferencing device 50a can receive content from an external device such as the laptop computer 600. When the received content is shared content that can be shared with the video conference counterpart, the first video conference apparatus 50a transfers the shared content to the second video conference apparatus 50b on the other side via the network 500. Can transmit

이때, 본 발명의 실시예에 따르면, 제1 화상회의장치(50a)는, 촬영 영상 내에, 공유 컨텐츠가 포함되도록 신호 처리를 수행하고, 공유 컨텐츠를 포함하는 촬영 영상을, 네트워크(500)를 통해 상대측인 제2 화상회의장치(50b)로, 전송할 수 있다. 이에 따라, 촬영 영상과 공유 컨텐츠를 별도로 전송하는 종래의 방식에 비해, 데이터 전송량을 상당히 줄일 수 있게 되며, 그 전송 속도도 상당히 향상될 수 있다.In this case, according to an embodiment of the present invention, the first video conference apparatus 50a performs signal processing so that the shared content is included in the captured image, and captures the captured image including the shared content through the network 500. It is possible to transmit to the second video conference apparatus 50b on the other side. Accordingly, compared with the conventional method of separately transmitting the captured image and the shared content, the data transmission amount can be significantly reduced, and the transmission speed can be significantly improved.

한편, 본 발명의 실시예에 따르면, 제1 화상회의장치(50a)는, 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트를 생성하여, 촬영 영상 내에 포함되도록 신호 처리를 수행하고, 컨트롤 오브젝트를 포함하는 촬영 영상을. 네트워크(500)를 통해 상대측인 제2 화상회의장치(50b)로, 전송할 수 있다. 이에 따라, 촬영 영상과 컨트롤 오브젝트를 별도로 전송하는 종래의 방식에 비해, 데이터 전송량을 상당히 줄일 수 있게 되며, 그 전송 속도도 상당히 향상될 수 있다.Meanwhile, according to an exemplary embodiment of the present invention, the first video conferencing device 50a generates a control object capable of controlling the shared content, performs signal processing to be included in the captured image, and captures the image including the control object. Video. The second video conferencing device 50b on the other side can be transmitted via the network 500. Accordingly, as compared with the conventional method of separately transmitting the captured image and the control object, the data transmission amount can be significantly reduced, and the transmission speed can be significantly improved.

그리고, 본 발명의 실시예에 따르면, 제1 화상회의장치(50a)는, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행함으로써, 사용자의 이용 편의성을 증대시킬 수 있게 된다.In addition, according to an embodiment of the present invention, the first video conferencing device 50a may increase user convenience by performing a corresponding operation on the shared content based on a selection input of a predetermined item in the control object. Will be.

한편, 도 1과 같은, 화상회의 시스템(10) 하에서의 화상회의장치(50a,50b)는, 영상표시장치(100a,100b)와 별도로 마련되는 것으로, 화상회의를 위한 촬영 영상을 수신하여, 영상 신호 처리 및 오디오 신호 처리를 수행하고, 신호 처리된 영상 신호, 오디오 신호를, 각각의 영상표시장치(100a,100b)로 전송하는 것이 가능하다.On the other hand, the video conferencing devices 50a and 50b under the video conferencing system 10 as shown in FIG. 1 are provided separately from the video display devices 100a and 100b. It is possible to perform the processing and the audio signal processing, and to transmit the signal-processed video signal and audio signal to the respective video display devices 100a and 100b.

그리고, 영상표시장치(100a,100b)는, 수신되는 영상 신호, 오디오 신호를 각각, 영상표시장치 내의 디스플레이, 오디오 출력부를 통해, 영상 출력, 오디오 출력을 수행할 수 있다.The image display apparatuses 100a and 100b may perform image output and audio output through the received image signal and the audio signal, respectively, through the display and the audio output unit in the image display apparatus.

한편, 영상표시장치(100a,100b)는, 방송 표시 가능한 티브이(TV), 모니터, 컴퓨터 등을 포함할 수 있다.  Meanwhile, the image display apparatuses 100a and 100b may include a TV (TV), a monitor, a computer, and the like, which can be broadcast-displayed.

한편, 도면에서는, 제1 화상회의장치(50a)와 제2 화상회의장치(50b) 간의 화상회의를 예시하나, 다자 간의 화상 회의도 가능하다. 즉, 제1 및 제2 화상회의장치 외에, 추가로 더 많은 화상회의장치가 화상회의시스템에서 사용되는 것도 가능하다.On the other hand, although the video conference between the 1st video conference apparatus 50a and the 2nd video conference apparatus 50b is illustrated in figure, multi-party video conference is also possible. That is, in addition to the first and second video conferencing devices, it is also possible for more video conferencing devices to be used in the video conferencing system.

한편, 도 1과 달리, 본 발명의 다른 실시예에 따른 화상회의장치는, 도 1의 화상회의장치(50a)와 제1 영상표시장치(100a)가 결합되는 것도 가능하다. 즉, 제1 화상회의장치(50a)가 제1 영상표시장치(100a) 내에 구비되는 것이 가능하다. 이에 따라, 촬영 영상의 전송은, 영상표시장치(100a,100b) 사이에서, 네트워크(500)를 통해 수행되는 것이 가능하다.Meanwhile, unlike FIG. 1, in the videoconferencing apparatus according to another embodiment of the present invention, the videoconferencing apparatus 50a and the first image display apparatus 100a of FIG. 1 may be combined. That is, it is possible for the first video conferencing device 50a to be provided in the first video display device 100a. Accordingly, transmission of the captured image may be performed through the network 500 between the image display apparatuses 100a and 100b.

도 2a 내지 도 2b는 본 발명의 일실시예에 따른 화상회의장치의 내부 블록도이다.2A to 2B are internal block diagrams of a videoconferencing apparatus according to an embodiment of the present invention.

먼저, 도 2a를 참조하면, 화상회의장치(50)는, 촬영부(195), 마이크(198), 네트워크 인터페이스부(255), 저장부(258), 제어부(260), 사용자입력 인터페이스부(263), 및 외부장치 인터페이스부(265)를 포함할 수 있다.First, referring to FIG. 2A, the video conference apparatus 50 includes a photographing unit 195, a microphone 198, a network interface unit 255, a storage unit 258, a control unit 260, and a user input interface unit ( 263, and an external device interface unit 265.

촬영부(195)는, 영상을 촬영한다. 특히, 화상 회의를 위해, 화자(speaker)를 촬영할 수 있다. 촬영부(195)에서 촬영된 영상 정보는 제어부(260)에 입력될 수 있다. The photographing unit 195 photographs an image. In particular, for video conferencing, a speaker can be photographed. The image information photographed by the photographing unit 195 may be input to the controller 260.

촬영부(195)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 촬영부(195)는 화상회의장치(50) 상부에 매립되거나 또는 별도로 배치될 수 있다. 촬영부(195)에서 촬영된 영상 정보는 제어부(260)에 입력될 수 있다. The photographing unit 195 may be implemented by one camera, but is not limited thereto and may be implemented by a plurality of cameras. On the other hand, the photographing unit 195 may be embedded in the upper portion of the video conferencing device 50 or disposed separately. The image information photographed by the photographing unit 195 may be input to the controller 260.

마이크(198)는, 오디오 신호를 수집한다. 특히, 화상 회의를 위해, 화자(speaker)의 오디오 신호를 수집할 수 있다. 이때, 수집되는 오디오 신호는, 다중 채널 모드(Multi channel mode)의 오디오 신호(audio signal)일 수 있다. 마이크(198)에서 수집된 오디오 신호는 제어부(260)에 입력될 수 있다. The microphone 198 collects an audio signal. In particular, for video conferencing, a speaker audio signal may be collected. In this case, the collected audio signal may be an audio signal of a multi channel mode. The audio signal collected by the microphone 198 may be input to the controller 260.

한편, 마이크(198)는, 화상회의장치(50) 상부에 매립되거나 또는 별도로 배치될 수 있다. 한편, 마이크(198)는, 촬영부(195)와 별도로 마련될 수 있으나, 이와 달리, 촬영부(195)와 일체형으로 구비되는 것도 가능하다. On the other hand, the microphone 198 may be embedded in the upper portion of the video conferencing device 50 or disposed separately. The microphone 198 may be provided separately from the photographing unit 195. Alternatively, the microphone 198 may be provided integrally with the photographing unit 195.

네트워크 인터페이스부(255)는, 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 또한, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크(500)를 통해, 상대측 화상회의장치와 데이터를 송신 또는 수신할 수 있다. The network interface unit 255 provides an interface for connecting to a wired / wireless network including an internet network. In addition, via the connected network or another network 500 linked to the connected network, it is possible to transmit or receive data with the counterpart video conference apparatus.

특히, 네트워크 인터페이스부(255)는, 본 발명의 실시예와 관련하여, 촬영 영상을 송신 또는 수신하던가, 공유 컨텐츠를 포함하는 촬영 영상을 송신 또는 수신하던가, 또는 컨트롤 오브젝트를 포함하는 촬영 영상을 송신 또는 수신할 수 있다.In particular, in accordance with an embodiment of the present invention, the network interface unit 255 transmits or receives a captured image, transmits or receives a captured image including shared content, or transmits a captured image including a control object. Or can be received.

저장부(258)는, 제어부(260) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 외부장치 인터페이스부(265) 또는 네트워크 인터페이스부(255)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. The storage unit 258 may store a program for processing and controlling signals in the controller 260, and may include an image, audio, or data signal input from the external device interface unit 265 or the network interface unit 255. You can also perform a function for temporary storage of.

사용자입력 인터페이스부(263)는, 사용자가 입력한 신호를 제어부(260)로 전달하거나, 제어부(260)로부터의 신호를 사용자에게 전달한다. 예를 들어, 로컬키(미도시) 또는 원격제어장치(미도시)를 통해 입력되는, 전원 온/오프, 동작 입력, 설정 입력 등의 다양한 제어 신호를 수신하여 제어부(260)로 전달할 수 있다.The user input interface unit 263 transmits a signal input by the user to the controller 260 or transmits a signal from the controller 260 to the user. For example, various control signals, such as power on / off, operation input, setting input, etc. input through a local key (not shown) or a remote control device (not shown) may be received and transmitted to the controller 260.

한편, 사용자입력 인터페이스부(263)는, 상술한 촬영부(195), 및 마이크(198)를 포함하는 개념일 수도 있다. 예를 들어, 촬영부(195)로부터의 촬영 영상은, 화자의 손동작 등의 제스처에 의한 사용자 입력 신호 감지에 사용될 수 있으며, 마이크(198)로부터 수집된 오디오는, 화자의 음성 인식에 의한 사용자 입력 신호 감지에 사용될 수 있다.The user input interface unit 263 may be a concept including the photographing unit 195 and the microphone 198. For example, the captured image from the photographing unit 195 may be used to detect a user input signal by a gesture such as a speaker's hand gesture, and the audio collected from the microphone 198 may be input by a speaker's voice recognition. Can be used for signal detection.

외부장치 인터페이스부(265)는, 유선 또는 무선으로 접속되는 외부장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 특히, 화상표시장치(50)가 영상표시장치(100)와 별도로 마련되는 경우, 영상표시장치(100)와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 그 외 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공하는 것도 가능하다.The external device interface unit 265 provides an interface for data transmission or reception with an external device connected by wire or wirelessly. In particular, when the image display apparatus 50 is provided separately from the image display apparatus 100, an interface for transmitting or receiving data with the image display apparatus 100 is provided. It is also possible to provide an interface for data transmission or reception with an external device such as a game device, a camera, a camcorder, a computer (notebook computer) or the like.

제어부(260)는, 입력되는 신호의 신호 처리를 수행한다. The controller 260 performs signal processing on the input signal.

예를 들어, 제어부(260)는, 촬영부(195)에서 촬영된 영상 신호, 또는 마이크(198)에서 수집된 오디오 신호를, 다중화(multiplexing) 또는 부호화(encoding)할 수 있다. 그리고, 제어부(260)는, 화상 회의를 위해, 다중화 또는 부호화된 영상 신호, 오디오 신호를, 네트워크 인터페이스부(255)를 통해, 상대측 화상회의장치로 전송하도록 제어할 수 있다. For example, the controller 260 may multiplex or encode the video signal photographed by the photographing unit 195 or the audio signal collected by the microphone 198. In addition, the controller 260 may control to transmit the multiplexed or encoded video signal and audio signal to the counterpart video conference apparatus through the network interface unit 255 for the video conference.

다른 예로, 제어부(260)는, 네트워크 인터페이스부(255)를 통해, 상대측 화상회의장치로부터 수신되는, 영상 신호 또는 오디오 신호를, 역다중화(demultiplexing) 또는 복호화(decoding)할 수 있다.As another example, the controller 260 may demultiplex or decode a video signal or an audio signal received from a counterpart video conference apparatus through the network interface unit 255.

제어부(260)는, 촬영부(195)에서 촬영된 영상 신호와, 네트워크 인터페이스부(255)를 통해 수신되는 상대측 화상회의장치로부터의 영상 신호를 합성할 수 있다. 그리고, 합성된 영상 신호를 외부장치 인터페이스부(265)를 통해 화상회의장치(100)로 전송될 수 있다. The controller 260 may synthesize a video signal photographed by the photographing unit 195 and a video signal from a counterpart video conference apparatus received through the network interface unit 255. The synthesized video signal may be transmitted to the videoconferencing apparatus 100 through the external device interface unit 265.

또한, 제어부(260)는, 마이크(198)에서 수집된 오디오 신호와, 네트워크 인터페이스부(255)를 통해 수신되는 상대측 화상회의장치로부터의 오디오 신호를 합성할 수 있다. 그리고, 합성된 오디오 신호를 외부장치 인터페이스부(265)를 통해 화상회의장치(100)로 전송될 수 있다. In addition, the controller 260 may synthesize the audio signal collected by the microphone 198 and the audio signal from the counterpart video conference apparatus received through the network interface unit 255. The synthesized audio signal may be transmitted to the video conference apparatus 100 through the external device interface unit 265.

한편, 화상회의장치(50)는, 별도의 미디어(media) 재생을 위한 미디어 입력부(미도시)를 더 포함할 수 있다. 이러한 미디어 입력부의 예로는, 블루레이 입력부(미도시) 등이 예시될 수 있다. 즉, 화상회의장치(50)는, 블루레이 플레이어 등을 구비하는 것이 가능하다. 입력되는 블루레이 디스크 등의 미디어는 제어부(260)에서의 역다중화 또는 복호화 등의 신호 처리 이후, 그 표시를 위해, 외부장치 인터페이스부(265)를 통해 화상회의장치(100)로 전송될 수 있다. The video conferencing device 50 may further include a media input unit (not shown) for playing a separate media. An example of such a media input unit is a Blu-ray input unit (not shown) or the like. That is, the video conference apparatus 50 can be equipped with a Blu-ray player or the like. The input media such as a Blu-ray disc may be transmitted to the videoconferencing apparatus 100 through the external device interface 265 for display after signal processing such as demultiplexing or decoding in the controller 260. .

다음, 도 2b를 참조하면, 화상회의장치(50)는, 도 2a의 화상회의장치(50)와 유사하나, 도 2a와 달리, 방송 수신부(272)를 더 구비하는 것에 그 차이가 있다.Next, referring to FIG. 2B, the videoconferencing device 50 is similar to the videoconferencing device 50 of FIG. 2A, but unlike FIG. 2A, the video conferencing device 50 further includes a broadcast receiving unit 272.

방송 수신부(272)는, 튜너부(270)와 복조부(275)를 포함할 수 있다. 특히, 안테나(50)를 통해 수신되는, 방송 신호를 수신할 수 있다. 수신되는 방송 신호는, 제어부(260)로 입력될 수 있다. The broadcast receiving unit 272 may include a tuner unit 270 and a demodulation unit 275. In particular, it can receive a broadcast signal, which is received via the antenna 50. The received broadcast signal may be input to the controller 260.

그 외, 제어부(260) 등의 동작은, 도 2a를 참조하여 그 설명을 생략한다.In addition, operation | movement of the control part 260 etc. is abbreviate | omitted with reference to FIG. 2A.

도 3은 본 발명의 다른 실시예에 따른 화상표시장치의 내부 블록도이다. 3 is an internal block diagram of an image display apparatus according to another embodiment of the present invention.

도 3을 참조하면, 본 발명의 다른 실시예에 따른 화상회의장치(100)는, 도 1 과 달리, 화상회의장치와 영상표시장치가 결합된 것일 수 있다. 이하에서는, 이를 중심으로 기술한다.Referring to FIG. 3, the video conferencing device 100 according to another embodiment of the present invention may be a video conferencing device and a video display device, unlike FIG. 1. In the following description, it will be described.

본 발명의 다른 실시예에 따른, 도 3의 화상회의장치(100)는, 방송 수신부(105), 외부장치 인터페이스부(130), 저장부(140), 사용자입력 인터페이스부(150), 센서부(미도시), 제어부(170), 디스플레이(180), 오디오 출력부(185), 마이크(198), 및 촬영부(195)를 포함할 수 있다.According to another embodiment of the present invention, the video conferencing device 100 of FIG. 3 includes a broadcast receiving unit 105, an external device interface unit 130, a storage unit 140, a user input interface unit 150, and a sensor unit. (Not shown), the controller 170, the display 180, the audio output unit 185, the microphone 198, and the photographing unit 195 may be included.

방송 수신부(105)는, 튜너부(110), 복조부(120), 및 네트워크 인터페이스부(130)를 포함할 수 있다. 물론, 필요에 따라, 튜너부(110)와 복조부(120)를 구비하면서 네트워크 인터페이스부(130)는 포함하지 않도록 설계하는 것도 가능하며, 반대로 네트워크 인터페이스부(130)를 구비하면서 튜너부(110)와 복조부(120)는 포함하지 않도록 설계하는 것도 가능하다. The broadcast receiving unit 105 may include a tuner unit 110, a demodulation unit 120, and a network interface unit 130. Of course, it is possible to design the network interface unit 130 not to include the tuner unit 110 and the demodulation unit 120 as necessary, and to provide the network interface unit 130 with the tuner unit 110 And the demodulation unit 120 are not included.

한편, 방송 수신부(105)는, 도면과 달리, 외부장치 인터페이스부(도 3의 135)를 포함할 수도 있다. Meanwhile, unlike the figure, the broadcast receiving unit 105 may include an external device interface unit 135 of FIG. 3.

튜너부(110)는, 안테나(50)를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by the user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through the antenna 50. Also, the selected RF broadcast signal is converted into an intermediate frequency signal, a baseband image, or a voice signal.

예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the selected RF broadcast signal is an analog broadcast signal, it is converted into an analog baseband image or voice signal (CVBS / SIF). That is, the tuner unit 110 can process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal (CVBS / SIF) output from the tuner unit 110 can be directly input to the controller 170.

또한, 튜너부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. The tuner unit 110 may receive an RF broadcast signal of a single carrier according to an Advanced Television System Committee (ATSC) scheme or an RF broadcast signal of a plurality of carriers according to a DVB (Digital Video Broadcasting) scheme.

한편, 튜너부(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. Meanwhile, the tuner unit 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel memory function among the RF broadcast signals received through the antenna in the present invention, and sequentially selects RF broadcast signals of the intermediate frequency signal, baseband image, . ≪ / RTI >

한편, 튜너부(110)는, 복수 채널의 방송 신호를 수신하기 위해, 복수의 튜너를 구비하는 것이 가능하다. 또는, 복수 채널의 방송 신호를 동시에 수신하는 단일 튜너도 가능하다.On the other hand, the tuner unit 110 may be provided with a plurality of tuners in order to receive broadcast signals of a plurality of channels. Alternatively, a single tuner that simultaneously receives broadcast signals of a plurality of channels is also possible.

복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal.

복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다. The stream signal output from the demodulator 120 may be input to the controller 170. The control unit 170 performs demultiplexing, video / audio signal processing, and the like, and then outputs an image to the display 180 and outputs audio to the audio output unit 185.

외부장치 인터페이스부(130)는, 접속된 외부 장치(190)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 can transmit or receive data with the connected external device 190. [ To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있으며, 외부 장치와 입력/출력 동작을 수행할 수도 있다. The external device interface unit 130 may be connected to an external device such as a DVD (Digital Versatile Disk), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or a wired / wireless connection. You can also perform input and output operations.

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 입력받을 수 있다. 한편, 무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. The A / V input / output unit can receive video and audio signals from an external device. Meanwhile, the wireless communication unit can perform short-range wireless communication with other electronic devices.

네트워크 인터페이스부(135)는, 화상회의장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 예를 들어, 네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. The network interface unit 135 provides an interface for connecting the video conference apparatus 100 with a wired / wireless network including an internet network. For example, the network interface unit 135 can receive, via the network, content or data provided by the Internet or a content provider or a network operator.

또한, 네트워크 인터페이스부(135)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크(500)를 통해, 상대측 화상회의장치와 데이터를 송신 또는 수신할 수 있다. In addition, the network interface unit 135 may transmit or receive data with the counterpart videoconferencing apparatus via the connected network or another network 500 linked to the connected network.

특히, 네트워크 인터페이스부(135)는, 본 발명의 실시예와 관련하여, 촬영 영상을 송신 또는 수신하던가, 공유 컨텐츠를 포함하는 촬영 영상을 송신 또는 수신하던가, 또는 컨트롤 오브젝트를 포함하는 촬영 영상을 송신 또는 수신할 수 있다.In particular, in accordance with an embodiment of the present invention, the network interface unit 135 transmits or receives a captured image, transmits or receives a captured image including shared content, or transmits a captured image including a control object. Or can be received.

저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage unit 140 may store a program for each signal processing and control in the control unit 170 or may store the processed video, audio, or data signals.

또한, 저장부(140)는 외부장치 인터페이스부(130) 또는 네트워크 인터페이스부(135)로부터, 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the storage 140 may perform a function for temporarily storing an input image, audio, or data signal from the external device interface 130 or the network interface 135. In addition, the storage unit 140 may store information on a predetermined broadcast channel through a channel memory function such as a channel map.

도 3의 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다. Although the storage unit 140 of FIG. 3 is separately provided from the controller 170, the scope of the present invention is not limited thereto. The storage unit 140 may be included in the controller 170.

사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user input interface unit 150 transmits a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user.

예를 들어, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 송신/수신하거나, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 사용자의 제스처를 센싱하는 센서부(미도시)로부터 입력되는 사용자 입력 신호를 제어부(170)에 전달하거나, 제어부(170)로부터의 신호를 센서부(미도시)로 송신할 수 있다. (Not shown), such as a power key, a channel key, a volume key, and a set value, from the remote control apparatus 200, (Not shown) that senses a user's gesture to the control unit 170 or transmits a signal from the control unit 170 to the control unit 170 It is possible to transmit it to the sensor unit (not shown).

제어부(170)는, 입력되는 신호의 신호 처리를 수행한다. The controller 170 performs signal processing on the input signal.

예를 들어, 제어부(170)는, 촬영부(195)에서 촬영된 영상 신호, 또는 마이크(198)에서 수집된 오디오 신호를, 다중화(multiplexing) 또는 부호화(encoding)할 수 있다. 그리고, 제어부(170)는, 화상 회의를 위해, 다중화 또는 부호화된 영상 신호, 오디오 신호를, 네트워크 인터페이스부(135)를 통해, 상대측 화상회의장치로 전송하도록 제어할 수 있다. For example, the controller 170 may multiplex or encode the video signal captured by the photographing unit 195 or the audio signal collected by the microphone 198. The controller 170 may control the multiplexed or encoded video signal and audio signal to be transmitted to the counterpart video conference apparatus through the network interface 135 for the video conference.

다른 예로, 제어부(170)는, 네트워크 인터페이스부(135)를 통해, 상대측 화상회의장치로부터 수신되는, 영상 신호 또는 오디오 신호를, 역다중화(demultiplexing) 또는 복호화(decoding)할 수 있다.As another example, the controller 170 may demultiplex or decode the video signal or the audio signal received from the counterpart video conference apparatus through the network interface unit 135.

제어부(170)는, 촬영부(195)에서 촬영된 영상 신호와, 네트워크 인터페이스부(135)를 통해 수신되는 상대측 화상회의장치로부터의 영상 신호를 합성할 수 있다. 그리고, 합성된 영상 신호를 디스플레이(180)를 통해 표시하도록 제어할 수 있다. The controller 170 may synthesize the video signal photographed by the photographing unit 195 and the video signal from the counterpart video conference apparatus received through the network interface unit 135. In addition, the synthesized video signal may be controlled to be displayed on the display 180.

또한, 제어부(170)는, 마이크(198)에서 수집된 오디오 신호와, 네트워크 인터페이스부(135)를 통해 수신되는 상대측 화상회의장치로부터의 오디오 신호를 합성할 수 있다. 그리고, 합성된 오디오 신호를 오디오 출력부(185)를 통해 출력하도록 제어할 수 있다. In addition, the controller 170 may synthesize the audio signal collected by the microphone 198 and the audio signal from the counterpart video conference apparatus received through the network interface unit 135. The synthesized audio signal may be controlled to be output through the audio output unit 185.

그 외, 제어부(170)는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. In addition, the control unit 170 demultiplexes the input stream or processes the demultiplexed signals through the tuner unit 110, the demodulator 120, or the external device interface unit 130 to process an image or an audio signal. Signals for output can be generated and output.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The video signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the video signal. Also, the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The audio signal processed by the control unit 170 may be output to the audio output unit 185 as an audio signal. The audio signal processed by the controller 170 may be input to the external output device through the external device interface unit 130. [

도 3에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 4를 참조하여 후술한다.Although not shown in FIG. 3, the controller 170 may include a demultiplexer, an image processor, and the like. This will be described later with reference to FIG. 4.

그 외, 제어부(170)는, 화상회의장치(100) 내의 전반적인 동작을 제어할 수 있다. In addition, the controller 170 may control overall operations in the video conference apparatus 100.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 화상회의장치(100)를 제어할 수 있다. In addition, the controller 170 may control the video conference apparatus 100 by a user command or an internal program input through the user input interface unit 150.

한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.Meanwhile, the control unit 170 may control the display 180 to display an image. In this case, the image displayed on the display 180 may be a still image or a video, and may be a 2D image or a 3D image.

한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 중에, 소정 2D 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 할 수 있다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다. Meanwhile, the controller 170 may generate a 3D object for a predetermined 2D object among the images displayed on the display 180, and display the 3D object. For example, the object may be at least one of a connected web screen (newspaper, magazine, etc.), EPG (Electronic Program Guide), various menus, widgets, icons, still images, moving images, and text.

이러한 3D 오브젝트는, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다. Such a 3D object may be processed to have a different depth than the image displayed on the display 180. [ Preferably, the 3D object may be processed to appear protruding from the image displayed on the display 180.

한편, 제어부(170)는, 촬영부(195)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식할 수 있다. 예를 들어, 사용자와 화상회의장치(100) 간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.The controller 170 may recognize a location of the user based on the image photographed by the photographing unit 195. For example, the distance (z-axis coordinate) between the user and the videoconferencing device 100 may be determined. In addition, the x-axis coordinate and the y-axis coordinate in the display 180 corresponding to the user position can be grasped.

한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 복호화딘 영상 등과 함께 스트림 복호화되어 제어부(170)로 입력될 수 있다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다. Although not shown in the drawing, a channel browsing processing unit for generating a channel signal or a thumbnail image corresponding to an external input signal may be further provided. The channel browsing processing unit receives the stream signal TS output from the demodulation unit 120 or the stream signal output from the external device interface unit 130 and extracts an image from an input stream signal to generate a thumbnail image . The generated thumbnail image may be stream-decoded together with a decoded image and input to the controller 170. The control unit 170 may display a thumbnail list having a plurality of thumbnail images on the display 180 using the input thumbnail image.

이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다. At this time, the thumbnail list may be displayed in a simple view mode displayed on a partial area in a state where a predetermined image is displayed on the display 180, or in a full viewing mode displayed in most areas of the display 180. The thumbnail images in the thumbnail list can be sequentially updated.

디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. The display 180 converts an image signal, a data signal, an OSD signal, a control signal, or an image signal, a data signal, a control signal received from the external device interface unit 130 processed by the controller 170, and generates a driving signal. Create

디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 또한, 3차원 디스플레이(3D display)가 가능할 수도 있다. The display 180 may be a PDP, an LCD, an OLED, a flexible display, or the like, and may also be capable of a 3D display.

한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.Meanwhile, the display 180 may be configured as a touch screen and used as an input device in addition to the output device.

오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호를 입력 받아 음성으로 출력한다. The audio output unit 185 receives the signal processed by the control unit 170 and outputs it as a voice.

촬영부(195)는, 영상을 촬영한다. 특히, 화상 회의를 위해, 화자(speaker)를 촬영할 수 있다. 촬영부(195)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다. The photographing unit 195 photographs an image. In particular, for video conferencing, a speaker can be photographed. The image information photographed by the photographing unit 195 may be input to the controller 170.

촬영부(195)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 촬영부(195)는 디스플레이(180) 상부에 화상회의장치(100)에 매립되거나 또는 별도로 배치될 수 있다. 촬영부(195)에서 촬영된 영상 정보는 제어부(170)에 입력될 수 있다. The photographing unit 195 may be implemented by one camera, but is not limited thereto and may be implemented by a plurality of cameras. Meanwhile, the photographing unit 195 may be embedded in the video conferencing device 100 on the display 180 or may be separately disposed. The image information photographed by the photographing unit 195 may be input to the controller 170.

제어부(170)는, 촬영부(195)로부터 촬영된 영상, 또는 센서부(미도시)로부터의 감지된 신호 각각 또는 그 조합에 기초하여 사용자의 제스처를 감지할 수 있다. The controller 170 may detect a gesture of the user based on each of the images captured by the photographing unit 195 or the detected signals from the sensor unit (not shown) or a combination thereof.

마이크(198)는, 오디오 신호를 수집한다. 특히, 화상 회의를 위해, 화자(speaker)의 오디오 신호를 수집할 수 있다. 이때, 수집되는 오디오 신호는, 다중 채널 모드(Multi channel mode)의 오디오 신호(audio signal)일 수 있다. 마이크(198)에서 수집된 오디오 신호는 제어부(170)에 입력될 수 있다. The microphone 198 collects an audio signal. In particular, for video conferencing, a speaker audio signal may be collected. In this case, the collected audio signal may be an audio signal of a multi channel mode. The audio signal collected by the microphone 198 may be input to the controller 170.

한편, 마이크(198)는, 화상회의장치(50) 상부에 매립되거나 또는 별도로 배치될 수 있다. 한편, 마이크(198)는, 촬영부(195)와 별도로 마련될 수 있으나, 이와 달리, 촬영부(195)와 일체형으로 구비되는 것도 가능하다. On the other hand, the microphone 198 may be embedded in the upper portion of the video conferencing device 50 or disposed separately. The microphone 198 may be provided separately from the photographing unit 195. Alternatively, the microphone 198 may be provided integrally with the photographing unit 195.

원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.The remote control apparatus 200 transmits the user input to the user input interface unit 150. [ To this end, the remote control apparatus 200 can use Bluetooth, RF (radio frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee, or the like. Also, the remote control apparatus 200 can receive the video, audio, or data signal output from the user input interface unit 150 and display it or output it by the remote control apparatus 200.

한편, 상술한 화상회의장치(100)는, 고정형 또는 이동형 디지털 방송 수신 가능한 디지털 방송 수신기일 수 있다. Meanwhile, the video conferencing device 100 described above may be a digital broadcast receiver capable of receiving fixed or mobile digital broadcasting.

한편, 도 3에 도시된 화상회의장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 화상회의장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.On the other hand, a block diagram of the video conferencing device 100 shown in Figure 3 is a block diagram for one embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted depending on the specifications of the video conferencing apparatus 100 that is actually implemented. That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. In addition, the functions performed in each block are intended to illustrate the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of the present invention.

한편, 화상회의장치(100)는 도 3에 도시된 바와 달리, 도 3의 도시된 튜너부(110)와 복조부(120)를 구비하지 않고, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(130)를 통해서, 방송 컨텐츠를 수신하고, 이를 재생할 수도 있다.On the other hand, the video conferencing device 100 does not include the tuner 110 and the demodulator 120 shown in FIG. 3, unlike the illustrated in FIG. 3, but the network interface 130 or the external device interface unit ( Through 130, broadcast content may be received and reproduced.

한편, 도 3의 화상회의장치(100)는, 방송 표시 가능한 티브이(TV), 모니터, 컴퓨터, 휴대폰, 태블릿 PC 등의 휴대 단말기 등을 포함할 수 있다. Meanwhile, the video conference apparatus 100 of FIG. 3 may include a portable terminal such as a TV (TV), a monitor, a computer, a mobile phone, a tablet PC, and the like that can be broadcasted.

도 4는 도 3의 제어부의 내부 블록도이다. 4 is an internal block diagram of the control unit of FIG.

도면을 참조하여 설명하면, 본 발명의 일실시예에 의한, 도 1 및 도 2의 화상회의장치의 제어부(260), 또는 본 발명의 다른 실시예에 의한, 도 3의 화상회의장치의 제어부(170)는, 역다중화부(310), 영상 처리부(320), 프로세서(330), OSD 생성부(340), 믹서(345), 및 영상 인코더(370)를 포함할 수 있다. 그 외 오디오 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.Referring to the drawings, the controller 260 of the videoconferencing apparatus of FIGS. 1 and 2 according to one embodiment of the present invention, or the control unit of the videoconferencing apparatus of FIG. 3 according to another embodiment of the present invention ( 170 may include a demultiplexer 310, an image processor 320, a processor 330, an OSD generator 340, a mixer 345, and an image encoder 370. An audio processing unit (not shown), and a data processing unit (not shown).

이하에서는, 도 3의 화상회의장치의 제어부(170)를 중심으로 기술한다.Hereinafter, the control unit 170 of the video conference apparatus of FIG. 3 will be described.

역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130) 또는 네트워크 인터페이스부(135)에서 출력되는 스트림 신호일 수 있다.The demultiplexer 310 demultiplexes the input stream. For example, when an MPEG-2 TS is input, it can be demultiplexed into video, audio, and data signals, respectively. The stream signal input to the demultiplexer 310 may be a stream signal output from the tuner 110 or the demodulator 120, the external device interface 130, or the network interface 135.

영상 처리부(320)는, 입력되는 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(225), 및 스케일러(235)를 구비할 수 있다. The image processor 320 may perform image processing of an input image signal. To this end, the image processing unit 320 may include a video decoder 225 and a scaler 235. [

영상 디코더(225)는, 역다중화된 영상신호를 복호화하며, 스케일러(235)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다. 영상 디코더(225)는 다양한 규격의 디코더를 구비하는 것이 가능하다. The video decoder 225 decodes the demultiplexed video signal and the scaler 235 performs scaling so that the resolution of the decoded video signal can be output from the display 180. The video decoder 225 may include a decoder of various standards.

한편, 영상 처리부(320)는, 촬영부(195)에서 촬영된 영상 신호를 입력받아, 신호 처리를 수행할 수 있다. 촬영된 영상 신호가 부호화된 영상 신호인 경우, 이를 복호화할 수 있다. 그 외, 촬영된 영상 신호가 부호화되지 않은 경우, 별도의 복호화를 수행하지 않을 수 있다. 한편, 복호화된 영상 신호 등에 대해, 스케일러에서, 해상도 조정이 수행될 수도 있다. The image processor 320 may receive an image signal photographed by the photographing unit 195 and perform signal processing. If the captured image signal is an encoded image signal, it may be decoded. In addition, when the photographed video signal is not encoded, separate decoding may not be performed. On the other hand, for the decoded video signal or the like, resolution adjustment may be performed in the scaler.

예를 들어, 상대측 화상회의장치로부터 수신되는 촬영 영상 신호가, 영상 처리부(320)에 입력되는 경우, 이러한 촬영 영상 신호는 부호화된 신호이므로, 영상 디코더(225)는 이를 복호화하고, 스케일러(235)는, 복호화된 영상 신호에 대해, 스케일링을 수행할 수 있다.For example, when the captured video signal received from the counterpart videoconferencing apparatus is input to the image processor 320, since the captured video signal is an encoded signal, the image decoder 225 decodes it and the scaler 235. May perform scaling on the decoded video signal.

다른 예로, 화상회의장치(100)에 부착된 촬영부(195)로부터 수신되는 촬영 영상 신호가, 영상 처리부(320)에 입력되는 경우, 이러한 촬영 영상 신호는 부호화되지 않은 신호이므로, 영상 디코더(225)는 별도의 부호화를 수행하지 않을 수 있다. 그리고, 스케일러(235)는, 촬영 영상 신호에 대해, 스케일링을 수행할 수 있다. As another example, when the photographed video signal received from the photographing unit 195 attached to the video conferencing device 100 is input to the image processor 320, since the photographed video signal is an uncoded signal, the video decoder 225 is used. ) May not perform a separate encoding. The scaler 235 may perform scaling on the captured image signal.

스케일러(235)는, 화상회의시, 사용자 설정에 의해, 상대측 화상회의장치로부터 수신되는 촬영 영상의 사이즈와, 화상회의장치(100)에 부착된 촬영부(195)로부터 수신되는 촬영 영상의 사이즈를 가변할 수 있다. 바람직하게는, 상회의장치(100)에 부착된 촬영부(195)로부터 수신되는 촬영 영상의 사이즈가 더 크도록 스케일링할 수 있다. The scaler 235 determines the size of the captured image received from the counterpart video conferencing apparatus and the size of the captured image received from the image capturing unit 195 attached to the video conferencing apparatus 100 by user setting during video conferencing. Can be variable. Preferably, the size of the captured image received from the photographing unit 195 attached to the apparatus 100 may be larger.

프로세서(330)는, 화상회의장치(100) 내 또는 제어부(170) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(320)는, 화상회의를 위한, 신호 처리 등에 대한 제어를 수행할 수 있다. 다른 예로, 프로세서(320)는, 수신되는 방송 시청을 위해, 튜너(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. The processor 330 may control overall operations in the video conferencing device 100 or the controller 170. For example, the processor 320 may perform control of signal processing for video conferencing. As another example, the processor 320 may control the tuner 110 to select an RF broadcast corresponding to a channel selected by a user or a pre-stored channel for viewing the received broadcast.

또한, 프로세서(330)는, 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 화상회의장치(100)를 제어할 수 있다. In addition, the processor 330 may control the video conference apparatus 100 by a user command or an internal program input through the user input interface unit 150.

또한, 프로세서(330)는, 네트워크 인터페이스부(135) 또는 외부장치 인터페이스부(130)와의 데이터 전송 제어를 수행할 수 있다. In addition, the processor 330 may perform data transfer control with the network interface unit 135 or the external device interface unit 130.

또한, 프로세서(330)는, 제어부(170) 내의 역다중화부(310), 영상 처리부(320), OSD 생성부(340) 등의 동작을 제어할 수 있다. The processor 330 may control operations of the demultiplexing unit 310, the image processing unit 320, the OSD generating unit 340, and the like in the controller 170.

OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 화상회의장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다. The OSD generator 340 generates an OSD signal according to a user input or itself. For example, based on a user input signal, a signal for displaying various information in a graphic or text form on the screen of the display 180 can be generated. The generated OSD signal may include various data such as a user interface screen, various menu screens, widgets, and icons of the video conference apparatus 100. In addition, the generated OSD signal may include a 2D object or a 3D object.

또한, OSD 생성부(340)는, 원격제어장치(200)로부터 입력되는 포인팅 신호에 기초하여, 디스플레이에 표시 가능한, 포인터를 생성할 수 있다. 특히, 이러한 포인터는, 포인팅 신호 처리부에서 생성될 수 있으며, OSD 생성부(240)는, 이러한 포인팅 신호 처리부(미도시)를 포함할 수 있다. 물론, 포인팅 신호 처리부(미도시)가 OSD 생성부(240) 내에 구비되지 않고 별도로 마련되는 것도 가능하다.The OSD generating unit 340 can generate a pointer that can be displayed on the display based on the pointing signal input from the remote control device 200. [ In particular, such a pointer may be generated by the pointing signal processor, and the OSD generator 240 may include such a pointing signal processor (not shown). Of course, a pointing signal processing unit (not shown) may be provided separately from the OSD generating unit 240.

믹서(345)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상 처리부(320)에서 영상 처리된 영상 신호를 믹싱할 수 있다. The mixer 345 may mix the OSD signal generated by the OSD generator 340 and the image signal processed by the image processor 320.

믹서(345)에서 믹싱된 신호는, 디스플레이(180)에서의 출력을 위해, 디스플레이(180)로 전달될 수 있다. 이때, 믹싱된 신호는, 낮은 전압 차분 신호(Low voltage differential signaling;LVDS) 또는 미니 LVDS 신호 등의 전송용 신호로 변경되어, 디스플레이(180)로 전송될 수 있다. The mixed signal at mixer 345 may be passed to display 180 for output at display 180. In this case, the mixed signal may be converted into a signal for transmission such as a low voltage differential signaling (LVDS) signal or a mini LVDS signal, and transmitted to the display 180.

한편, 믹서(345)에서 믹싱된 신호는, 화상 회의를 위해, 상대측 화상회의장치로 전송되는데 사용될 수 있다. 이를 위해, 믹서(345)에서 믹싱된 신호는, 영상 인코더(370)로 입력될 수 있다.On the other hand, the signal mixed in the mixer 345 can be used to be transmitted to the counterpart videoconferencing apparatus for videoconferencing. To this end, the mixed signal from the mixer 345 may be input to the image encoder 370.

영상 인코더(370)는, 믹서(345)로부터의 영상 신호를 부호화할 수 있다. 이를 위해, 인코더(370)는 다양한 규격의 인코더를 구비하는 것이 가능하다. The video encoder 370 may encode a video signal from the mixer 345. To this end, the encoder 370 may be provided with encoders of various standards.

한편, 도면에는 도시하지 않았지만, 인코더(370) 이후에, 다중화부(미도시)가 더 구비되는 것이 바람직하다. 다중화부(미도시)는, 영상 인코더(370)에서 부호화된 영상 신호와, 오디오 인코더(미도시)에서 부호화된 오디오 신호를 다중화하여, 상대측 화상회의장치로 전송하기에 적합한 신호로 변경할 수 있다. Although not shown in the figure, it is preferable that a multiplexer (not shown) is further provided after the encoder 370. The multiplexer (not shown) may multiplex the video signal encoded by the video encoder 370 and the audio signal encoded by the audio encoder (not shown), and change the signal into a signal suitable for transmission to the counterpart videoconferencing apparatus.

부호화된 영상 신호 또는 오디오 신호 또는 다중화된 신호는, 네트워크 인터페이스부(135)를 통해, 상대측 화상회의장치로 전송될 수 있다.The encoded video signal or audio signal or multiplexed signal may be transmitted to the counterpart video conference apparatus through the network interface unit 135.

한편, 제어부(170) 내의 오디오 처리부(미도시)는, 역다중화부(310)에서 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(미도시)는 다양한 디코더를 구비할 수 있다.Meanwhile, the audio processor (not shown) in the controller 170 may perform voice processing of the demultiplexed voice signal by the demultiplexer 310. To this end, the audio processing unit (not shown) may include various decoders.

또한, 제어부(170) 내의 오디오 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. In addition, the audio processing unit (not shown) in the control unit 170 can process a base, a treble, a volume control, and the like.

제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. The data processing unit (not shown) in the control unit 170 can perform data processing of the demultiplexed data signal. For example, if the demultiplexed data signal is a coded data signal, it can be decoded. The encoded data signal may be EPG (Electronic Program Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcasted on each channel.

한편, 도 4에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Meanwhile, the block diagram of the controller 170 shown in FIG. 4 is a block diagram for an embodiment of the present invention. Each component of the block diagram can be integrated, added, or omitted according to the specifications of the control unit 170 actually implemented.

도 5는 도 3의 원격제어장치의 제어 방법을 도시한 도면이다.5 is a diagram showing a control method of the remote control apparatus of FIG.

도 5의 (a)에 도시된 바와 같이, 디스플레이(180)에 원격제어장치(200)에 대응하는 포인터(205)가 표시되는 것을 예시한다. 5A illustrates that the pointer 180 corresponding to the remote control device 200 is displayed on the display 180. In this case,

사용자는 원격제어장치(200)를 상하, 좌우(도 5의 (b)), 앞뒤(도 5의 (c))로 움직이거나 회전할 수 있다. 영상표시장치의 디스플레이(180)에 표시된 포인터(205)는 원격제어장치(200)의 움직임에 대응한다. 이러한 원격제어장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘 또는 3D 포인팅 장치라 명명할 수 있다. The user can move or rotate the remote control device 200 up and down, left and right (Figure 5 (b)), and back and forth (Figure 5 (c)). The pointer 205 displayed on the display 180 of the video display device corresponds to the movement of the remote control device 200. [ As shown in the figure, the remote controller 200 can be referred to as a space remote controller or a 3D pointing device because the pointer 205 is moved and displayed according to the movement in the 3D space.

도 5의 (b)는 사용자가 원격제어장치(200)를 왼쪽으로 이동하면, 영상표시장치의 디스플레이(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다. 5B illustrates that when the user moves the remote control apparatus 200 to the left, the pointer 205 displayed on the display 180 of the image display apparatus also shifts to the left correspondingly.

원격제어장치(200)의 센서를 통하여 감지된 원격제어장치(200)의 움직임에 관한 정보는 영상표시장치로 전송된다. 영상표시장치는 원격제어장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 영상표시장치는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.Information on the motion of the remote control device 200 sensed through the sensor of the remote control device 200 is transmitted to the image display device. The image display apparatus can calculate the coordinates of the pointer 205 from the information on the motion of the remote control apparatus 200. [ The image display apparatus can display the pointer 205 so as to correspond to the calculated coordinates.

도 5의 (c)는, 원격제어장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격제어장치(200)를 디스플레이(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다. 이와 반대로, 사용자가 원격제어장치(200)를 디스플레이(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다. 한편, 원격제어장치(200)가 디스플레이(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격제어장치(200)가 디스플레이(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.5C illustrates a case in which the user moves the remote control device 200 away from the display 180 while pressing a specific button in the remote control device 200. FIG. Thereby, the selected area in the display 180 corresponding to the pointer 205 can be zoomed in and displayed. Conversely, when the user moves the remote control device 200 close to the display 180, the selection area within the display 180 corresponding to the pointer 205 may be zoomed out and zoomed out. On the other hand, when the remote control device 200 moves away from the display 180, the selection area is zoomed out, and when the remote control device 200 approaches the display 180, the selection area may be zoomed in.

한편, 원격제어장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격제어장치(200)가 디스플레이(180)에서 멀어지거나 접근하도록 이동하는 경우, 상,하,좌,우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격제어장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격제어장치(200)의 상,하, 좌,우 이동에 따라 포인터(205)만 이동하게 된다. On the other hand, when the specific button in the remote control device 200 is pressed, it is possible to exclude recognizing the up, down, left, and right movement. That is, when the remote control device 200 moves away from or near the display 180, the up, down, left and right movements are not recognized, and only the front and back movements can be recognized. Only the pointer 205 is moved in accordance with the upward, downward, leftward, and rightward movement of the remote control device 200 in a state where the specific button in the remote control device 200 is not pressed.

한편, 포인터(205)의 이동속도나 이동방향은 원격제어장치(200)의 이동속도나 이동방향에 대응할 수 있다. On the other hand, the moving speed and moving direction of the pointer 205 may correspond to the moving speed and moving direction of the remote control device 200.

도 6은 도 3의 원격제어장치의 내부 블록도이다.Fig. 6 is an internal block diagram of the remote control device of Fig. 3; Fig.

도면을 참조하여 설명하면, 원격제어장치(200)는 무선통신부(425), 사용자 입력부(435), 센서부(440), 출력부(450), 전원공급부(460), 저장부(470), 제어부(480)를 포함할 수 있다. The remote control device 200 includes a wireless communication unit 425, a user input unit 435, a sensor unit 440, an output unit 450, a power supply unit 460, a storage unit 470, And a control unit 480.

무선통신부(425)는 전술하여 설명한 본 발명의 실시예들에 따른 영상표시장치 중 임의의 어느 하나와 신호를 송수신한다. 본 발명의 실시예들에 따른 영상표시장치들 중에서, 하나의 화상회의장치(100)를 일예로 설명하도록 하겠다.The wireless communication unit 425 transmits / receives a signal to / from any one of the video display devices according to the embodiments of the present invention described above. Among the image display apparatuses according to the exemplary embodiments of the present invention, one video conferencing apparatus 100 will be described as an example.

본 실시예에서, 원격제어장치(200)는 RF 통신규격에 따라 화상회의장치(100)와 신호를 송수신할 수 있는 RF 모듈(421)을 구비할 수 있다. 또한 원격제어장치(200)는 IR 통신규격에 따라 화상회의장치(100)와 신호를 송수신할 수 있는 IR 모듈(423)을 구비할 수 있다. In the present embodiment, the remote control apparatus 200 may include an RF module 421 capable of transmitting and receiving a signal with the videoconferencing apparatus 100 according to the RF communication standard. In addition, the remote control apparatus 200 may include an IR module 423 capable of transmitting and receiving a signal with the videoconferencing apparatus 100 according to the IR communication standard.

본 실시예에서, 원격제어장치(200)는 화상회의장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 RF 모듈(421)을 통하여 전송한다. In the present embodiment, the remote control apparatus 200 transmits a signal containing information on the movement of the remote control apparatus 200 to the videoconferencing apparatus 100 through the RF module 421.

또한, 원격제어장치(200)는 화상회의장치(100)가 전송한 신호를 RF 모듈(421)을 통하여 수신할 수 있다. 또한, 원격제어장치(200)는 필요에 따라 IR 모듈(423)을 통하여 화상회의장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다. In addition, the remote control apparatus 200 may receive a signal transmitted from the video conference apparatus 100 through the RF module 421. In addition, the remote control apparatus 200 may transmit a command regarding power on / off, channel change, volume change, etc. to the video conference apparatus 100 through the IR module 423 as necessary.

사용자 입력부(435)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(435)를 조작하여 원격제어장치(200)으로 화상회의장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(435)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 화상회의장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(435)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)으로 화상회의장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(435)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시예는 본 발명의 권리범위를 제한하지 아니한다.The user input unit 435 may include a keypad, a button, a touch pad, or a touch screen. The user may input a command related to the video conference apparatus 100 to the remote control apparatus 200 by manipulating the user input unit 435. When the user input unit 435 includes a hard key button, the user may input a command related to the video conferencing device 100 to the remote control apparatus 200 through a push operation of the hard key button. When the user input unit 435 includes a touch screen, the user may input a command related to the video conferencing device 100 to the remote controller 200 by touching a soft key of the touch screen. In addition, the user input unit 435 may include various types of input means such as a scroll key, a jog key, etc., which can be operated by the user, and the present invention is not limited to the scope of the present invention.

센서부(440)는 자이로 센서(441) 또는 가속도 센서(443)를 구비할 수 있다. 자이로 센서(441)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다. The sensor unit 440 may include a gyro sensor 441 or an acceleration sensor 443. The gyro sensor 441 may sense information about the movement of the remote controller 200.

일예로, 자이로 센서(441)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있다. 가속도 센서(443)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 거리측정센서를 더 구비할 수 있으며, 이에 의해, 디스플레이(180)와의 거리를 센싱할 수 있다.For example, the gyro sensor 441 can sense information about the operation of the remote control device 200 based on the x, y, and z axes. The acceleration sensor 443 may sense information about a moving speed of the remote controller 200. On the other hand, a distance measuring sensor can be further provided, whereby the distance to the display 180 can be sensed.

출력부(450)는 사용자 입력부(435)의 조작에 대응하거나 화상회의장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(450)를 통하여 사용자는 사용자 입력부(435)의 조작 여부 또는 화상회의장치(100)의 제어 여부를 인지할 수 있다. The output unit 450 may output a video or audio signal corresponding to an operation of the user input unit 435 or corresponding to a signal transmitted from the video conference apparatus 100. Through the output unit 450, the user may recognize whether the user input unit 435 is manipulated or whether the video conference apparatus 100 is controlled.

일예로, 출력부(450)는 사용자 입력부(435)가 조작되거나 무선 통신부(425)을 통하여 화상회의장치(100)와 신호가 송수신되면 점등되는 LED 모듈(451), 진동을 발생하는 진동 모듈(453), 음향을 출력하는 음향 출력 모듈(455), 또는 영상을 출력하는 디스플레이 모듈(457)을 구비할 수 있다. For example, the output unit 450 may include a LED module 451 which is turned on when the user input unit 435 is manipulated or a signal is transmitted / received through the wireless communication unit 425, and a vibration module generating vibration. 453), a sound output module 455 for outputting sound, or a display module 457 for outputting an image.

전원공급부(460)는 원격제어장치(200)으로 전원을 공급한다. 전원공급부(460)는 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(460)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.The power supply unit 460 supplies power to the remote control device 200. The power supply unit 460 may reduce power waste by stopping the power supply when the remote controller 200 does not move for a predetermined time. The power supply unit 460 may resume power supply when a predetermined key provided in the remote control device 200 is operated.

저장부(470)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 화상회의장치(100)와 RF 모듈(421)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)와 화상회의장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다. 원격제어장치(200)의 제어부(480)는 원격제어장치(200)와 페어링된 화상회의장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(470)에 저장하고 참조할 수 있다.The storage unit 470 may store various types of programs, application data, and the like necessary for the control or operation of the remote control apparatus 200. [ If the remote control apparatus 200 transmits and receives a signal wirelessly through the video conference apparatus 100 and the RF module 421, the remote control apparatus 200 and the video conference apparatus 100 transmit signals through a predetermined frequency band. Send and receive The control unit 480 of the remote control apparatus 200 stores information on a frequency band or the like for transmitting and receiving a signal wirelessly with the video conferencing apparatus 100 paired with the remote control apparatus 200 in the storage unit 470. Reference may be made.

제어부(480)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(480)는 사용자 입력부(435)의 소정 키 조작에 대응하는 신호 또는 센서부(440)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(425)를 통하여 화상회의장치(100)로 전송할 수 있다.The control unit 480 controls various items related to the control of the remote control device 200. The control unit 480 is a video conferencing device through a wireless communication unit 425 a signal corresponding to a predetermined key operation of the user input unit 435 or a signal corresponding to the movement of the remote control device 200 sensed by the sensor unit 440. 100 can be sent.

화상회의장치(100)의 사용자 입력 인터페이스부(150)는, 원격제어장치(200)와 무선으로 신호를 송수신할 수 있는 무선통신부(151)와, 원격제어장치(200)의 동작에 대응하는 포인터의 좌표값을 산출할 수 있는 좌표값 산출부(415)를 구비할 수 있다. The user input interface unit 150 of the video conference apparatus 100 includes a wireless communication unit 151 capable of transmitting and receiving a signal wirelessly with the remote control apparatus 200, and a pointer corresponding to the operation of the remote control apparatus 200. It may be provided with a coordinate value calculation unit 415 that can calculate the coordinate value of.

사용자 입력 인터페이스부(150)는, RF 모듈(412)을 통하여 원격제어장치(200)와 무선으로 신호를 송수신할 수 있다. 또한 IR 모듈(413)을 통하여 원격제어장치(200)이 IR 통신 규격에 따라 전송한 신호를 수신할 수 있다.The user input interface unit 150 can wirelessly transmit and receive signals to and from the remote control device 200 through the RF module 412. Also, the remote control device 200 can receive a signal transmitted through the IR module 413 according to the IR communication standard.

좌표값 산출부(415)는 무선통신부(151)를 통하여 수신된 원격제어장치(200)의 동작에 대응하는 신호로부터 손떨림이나 오차를 수정하여 디스플레이(170)에 표시할 포인터(202)의 좌표값(x,y)을 산출할 수 있다.The coordinate value calculator 415 corrects the camera shake or error from the signal corresponding to the operation of the remote controller 200 received via the wireless communication unit 151 and outputs the coordinate value of the pointer 202 to be displayed on the display 170 (x, y) can be calculated.

사용자 입력 인터페이스부(150)를 통하여 화상회의장치(100)로 입력된 원격제어장치(200) 전송 신호는 화상회의장치(100)의 제어부(180)로 전송된다. 제어부(180)는 원격제어장치(200)에서 전송한 신호로부터 원격제어장치(200)의 동작 및 키 조작에 관한 정보를 판별하고, 그에 대응하여 화상회의장치(100)를 제어할 수 있다.The remote control device 200 transmission signal input to the videoconferencing device 100 through the user input interface unit 150 is transmitted to the controller 180 of the videoconferencing device 100. The controller 180 may determine the information on the operation and the key operation of the remote controller 200 from the signal transmitted from the remote controller 200 and control the video conference apparatus 100 correspondingly.

또 다른 예로, 원격제어장치(200)는, 그 동작에 대응하는 포인터 좌표값을 산출하여 화상회의장치(100)의 사용자 입력 인터페이스부(150)로 출력할 수 있다. 이 경우, 화상회의장치(100)의 사용자 입력 인터페이스부(150)는 별도의 손떨림이나 오차 보정 과정 없이 수신된 포인터 좌표값에 관한 정보를 제어부(180)로 전송할 수 있다.As another example, the remote controller 200 may calculate a pointer coordinate value corresponding to the operation and output the pointer coordinate value to the user input interface unit 150 of the video conference apparatus 100. In this case, the user input interface unit 150 of the videoconferencing apparatus 100 may transmit the information about the received pointer coordinate value to the controller 180 without a separate hand shake or error correction process.

또한, 다른 예로, 좌표값 산출부(415)가, 도면과 달리 사용자 입력 인터페이스부(150)가 아닌, 제어부(170) 내부에 구비되는 것도 가능하다.As another example, the coordinate value calculating unit 415 may be provided in the control unit 170 instead of the user input interface unit 150, unlike the drawing.

도 7은 본 발명의 일실시예에 따른 화상회의장치의 동작방법을 보여주는 순서도이고, 도 8 내지 14e는 도 7 또는 도 9의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.FIG. 7 is a flowchart illustrating a method of operating a videoconferencing apparatus according to an embodiment of the present invention, and FIGS. 8 to 14E are views for explaining various examples of the method of FIG. 7 or 9.

도 7 내지 도 14e의 화상회의장치의 동작방법은, 도 1과 같이, 화상회의 시스템(10) 하에서의 화상회의장치(50)는, 영상표시장치(100)와 별도로 마련되는 것을 전제로 기술한다.The operation method of the videoconferencing device of FIGS. 7 to 14E is described on the premise that the videoconferencing device 50 under the videoconferencing system 10 is provided separately from the video display device 100 as shown in FIG. 1.

먼저, 화상회의장치(50)는, 촬영 영상을 수신한다(S710). 한편, 도 7의 제710 단계(S710)는, 도 8의 제810 단계(S810)에 대응한다.First, the video conference apparatus 50 receives a captured video (S710). Meanwhile, step 710 of FIG. 7 corresponds to step 810 of FIG. 8.

촬영부(195)는, 영상을 촬영한다. 특히, 화상 회의를 위해, 화자(speaker)를 촬영할 수 있다. 촬영부(195)에서 촬영된 영상 정보는 제어부(260)에 입력될 수 있다. The photographing unit 195 photographs an image. In particular, for video conferencing, a speaker can be photographed. The image information photographed by the photographing unit 195 may be input to the controller 260.

한편, 마이크(198)는, 오디오 신호를 수집한다. 특히, 화상 회의를 위해, 화자(speaker)의 오디오 신호를 수집할 수 있다. 마이크(198)에서 수집된 오디오 신호는 제어부(260)에 입력될 수 있다. On the other hand, the microphone 198 collects audio signals. In particular, for video conferencing, a speaker audio signal may be collected. The audio signal collected by the microphone 198 may be input to the controller 260.

한편, 화상화의장치(100)는, 상대측 화상회의장치로부터의 촬영된 영상, 및 음성 신호를, 네트워크 인터페이스부(255)를 통해 수신할 수 있다. 그리고, 수신되는 촬영된 영상, 및 음성 신호는, 제어부(260)에 입력될 수 있다. 이에 따라, 제어부(260)는, 상대측 화상회의장치로부터 수신되는 촬영된 영상 신호, 및 음성 신호를 역다중화, 복호화, 스케일링 등을 수행할 수 있다.On the other hand, the imaging apparatus 100 can receive the captured video and audio signal from the counterpart videoconferencing apparatus via the network interface unit 255. The received captured image and audio signal may be input to the controller 260. Accordingly, the controller 260 may demultiplex, decode, scale, or the like the photographed video signal and the audio signal received from the counterpart video conference apparatus.

그리고, 제어부(260)는, 화상회의장치에서 촬영된 영상 신호와, 상대측 화상회의장치로부터 수신되는 촬영된 영상 신호를 믹싱할 수 있다. 그리고, 믹싱된 영상 신호는, 영상표시장치(100)로 전송될 수 있다.The controller 260 may mix the video signal photographed by the videoconferencing apparatus with the photographed video signal received from the counterpart videoconferencing apparatus. The mixed image signal may be transmitted to the image display apparatus 100.

이에 따라, 도 9a와 같이, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된 자체 촬영 영상(910)과, 제2 영상표시장치(100b)의 촬영부(195b)에서 촬영된 상대측 촬영 영상(920)을 포함하는 회의 영상(900)이, 제1 화상회의장치(50a)에서 출력되어, 제1 영상표시장치(100a)에, 표시될 수 있다.Accordingly, as shown in FIG. 9A, the self-captured image 910 photographed by the photographing unit 195a of the first image display apparatus 100a and the photographing unit 195b of the second image display apparatus 100b are photographed. The conference image 900 including the opposite side captured image 920 may be output from the first video conference apparatus 50a and displayed on the first image display apparatus 100a.

한편, 역으로, 제2 영상표시장치(100b)의 촬영부(195b)에서 촬영된 자체 촬영 영상(925)과, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된 상대측 촬영 영상(915)을 포함하는 회의 영상(905)이, 제2 화상회의장치(50b)에서 출력되어, 제2 영상표시장치(100b)에, 표시될 수 있다.On the other hand, on the contrary, the self-captured image 925 captured by the capturing unit 195b of the second image display apparatus 100b and the counterpart photographed image captured by the capturing unit 195a of the first image display apparatus 100a. The conference video 905 including 915 may be output from the second video conference device 50b and displayed on the second video display device 100b.

한편, 제어부(260)는, 화상회의장치에서 수집된 오디오 신호와, 상대측 화상회의장치로부터 수집되는 오디오 신호를 믹싱할 수 있다. 그리고, 믹싱된 오디오 신호는, 영상표시장치(100)로 전송될 수 있다. The controller 260 may mix the audio signal collected by the videoconferencing apparatus and the audio signal collected from the counterpart videoconferencing apparatus. The mixed audio signal may be transmitted to the image display apparatus 100.

다음, 공유 오브젝트가 등록되었는 지 여부를 판단한다(S720). 공유 오브젝트가 등록된 경우, 촬영 영상 내의 소정 오브젝트를 공유 오브젝트로 신호 처리한다(S730). 그리고, 공유 오브젝트를 포함하는 촬영 영상을 외부로 전송한다(S740). 한편, 도 7의 제720 단계(S720) 내지 제740 단계(S740)는, 도 8의 제820 단계(S820) 내지 제840 단계(S840)에 대응한다.Next, it is determined whether the shared object is registered (S720). When the shared object is registered, the predetermined object in the captured image is signal processed as the shared object (S730). In operation S740, the captured image including the shared object is transmitted to the outside. Meanwhile, steps 720 to 740 (S740) of FIG. 7 correspond to steps 820 to 840 (S840) of FIG. 8.

화상회의장치(50)의 제어부(260)는, 상대측 화상회의장치와의 공유 가능한 공유 오브젝트가 등록되었는 지 여부를 판단할 수 있다.The control unit 260 of the video conference apparatus 50 can determine whether a shared object that can be shared with the counterpart video conference apparatus is registered.

공유 오브젝트는, 화상회의장치(50)의 촬영부에서 촬영된 영상 내의 소정 오브젝트로서 정해질 수 있다. 예를 들어, 촬영된 영상 내에, 다수의 화자(speaker) 및 격자패턴 시트가 포함되는 경우, 사용자 등록에 의해, 격자패턴 시트를 공유 오브젝트로서 설정할 수 있다.The shared object may be determined as a predetermined object in the image photographed by the image capturing unit of the video conference apparatus 50. For example, when a plurality of speakers and grid pattern sheets are included in the captured image, the grid pattern sheet may be set as a shared object by user registration.

도 9a에서는, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된 자체 촬영 영상(910) 내의 격자패턴 시트(930)가 공유 오브젝트로서 설정되는 것을 예시한다.In FIG. 9A, the grid pattern sheet 930 in the self-captured image 910 captured by the capturing unit 195a of the first image display apparatus 100a is set as a shared object.

이러한 공유 오브젝트는, 촬영 영상 이미지 내의 오브젝트로서, 다른 오브젝트와 구별가능 하도록 하이라이트 되는 것이 바람직하다. Such a shared object is an object in the photographed video image, and is preferably highlighted to be distinguishable from other objects.

제어부(260)는, 공유 오브젝트를 포함하는 촬영 영상 신호를, 영상표시장치(100)로 전송하도록 제어한다. The controller 260 controls to transmit the captured video signal including the shared object to the video display device 100.

도 9a는, 제1 화상회의장치(50a)와 연결된 제1 영상표시장치(100b)에, 제1 화상회의장치(50a)로부터 수신되는 공유 오브젝트(930)가 하이라이트 처리(935)되어, 공유 오브젝트(930)를 포함하는 촬영 영상(900)이 표시되는 것을 예시한다. 구체적으로, 격자패턴 시트(930) 주위에, 박스 처리(935)가 되는 것을 예시한다. 이에 의해, 자신 및 상대측 화상회의장치를 이용하는 사용자는, 공유 오브젝트의 존재를 용이하게 인식할 수 있게 된다.9A, the shared object 930 received from the first video conference device 50a is highlighted by the first video display device 100b connected to the first video conference device 50a, and the shared object 930 is highlighted. For example, the captured image 900 including 930 is displayed. Specifically, the box processing 935 is illustrated around the grid pattern sheet 930. This makes it possible for users who use themselves and their counterpart videoconferencing apparatus to easily recognize the existence of the shared object.

이러한 공유 오브젝트에 대한 신호 처리는, 화상회의장치(50)의 제어부(260)에서 수행되며, 특히, OSD 생성부(340)에서, 공유 오브젝트의 하이라이트 표시가 수행될 수 있다. 그리고, 믹서(345)는, 촬영 영상과, 하이라이트 표시 처리되는 공유 오브젝트를 믹싱하여, 하이라이트 처리된 공유 오브젝트를 포함하는 촬영 영상 신호를 출력한다. The signal processing for the shared object is performed by the controller 260 of the video conferencing device 50. In particular, the OSD generator 340 may perform highlight display of the shared object. The mixer 345 mixes the photographed video and the shared object subjected to highlight display processing, and outputs a photographed video signal including the highlighted shared object.

한편, 제어부(260)는, 공유 오브젝트가 설정된 경우, 그리고, 제어부(260)는, 공유 오브젝트를 포함하는 촬영 영상 신호를, 네트워크(500)를 통해, 상대측 화상회의장치로 전송하도록 제어할 수 있다. On the other hand, when the shared object is set, the controller 260 may control the controller 260 to transmit a captured video signal including the shared object to the counterpart video conference apparatus through the network 500. .

도 9a는, 제2 화상회의장치(50b)와 연결된 제2 영상표시장치(100b)에, 제1 화상회의장치(50a)로부터 수신되는 공유 오브젝트를 포함하는 촬영 영상 신호가 수신되어, 제2 영상표시장치(100b)에, 공유 오브젝트를 포함하는 촬영 영상(915)이 표시되는 것을 예시한다.FIG. 9A illustrates a second video display device 100b connected to a second video conference device 50b to receive a captured video signal including a shared object received from the first video conference device 50a. For example, the display device 100b displays a captured image 915 including a shared object.

도 9b는 도 9a와 유사하나, 공유 오브젝트의 종류가 다른 것에 그 차이가 있다.9B is similar to FIG. 9A except that the types of shared objects are different.

도 9b는, 공유 오브젝트로서, 도 9a의 촬영 영상 내의 격자패턴 시트(930) 대신에, 가상(augmented)의 공유 오브젝트(940)가 표시되는 것을 예시한다. 이를 위해, 제어부(260), 특히, OSD 생성부(340)는, 가상의 공유 오브젝트를 생성하고, 이를 출력한다. 믹서((345)는, 촬영 영상과, 생성된 가성의 공유 오브젝트를 합성하여, 도면과 같이, 격자패턴 시트(930) 위치에, 가상의 공유 오브젝트(940)가 위치하는, 촬영 영상을 출력한다.FIG. 9B illustrates that an augmented shared object 940 is displayed instead of the grid pattern sheet 930 in the captured image of FIG. 9A as the shared object. To this end, the controller 260, in particular, the OSD generator 340 generates a virtual shared object and outputs it. The mixer 345 synthesizes the captured image and the generated caustic shared object, and outputs a captured image in which the virtual shared object 940 is positioned at the grid pattern sheet 930 as shown in the figure. .

이에 따라, 도 9b와 같이, 제1 화상회의장치(50a)와 연결된 제1 영상표시장치(100b)에, 하이라이트 처리된 공유 오브젝트(940)를 포함하는 촬영 영상(900)이 표시될 수 있다.Accordingly, as shown in FIG. 9B, the captured image 900 including the highlighted shared object 940 may be displayed on the first image display apparatus 100b connected to the first video conference apparatus 50a.

한편, 상술한 공유 오브젝트는, 화상 회의시, 양자 간, 또는 다자 간에, 공유할 컨텐츠를 표시할 위치에 대한 기준을 제공할 수 있다. 즉, 화상 회의시, 촬영 영상 내에 포함되는 공유 컨텐츠가, 공유 오브젝트의 위치에 대응하여, 촬영 영상 내에 배치될 수 있다. 이에 대해서는 이하를 참조하여 기술한다.In the meantime, the above-described shared object may provide a criterion for a location where content to be shared is displayed in a video conference, between two parties or between parties. That is, in the video conference, the shared content included in the captured image may be disposed in the captured image corresponding to the position of the shared object. This will be described with reference to the following.

다음, 공유 컨텐츠를 수신한다(S750). 그리고, 수신되는 공유 컨텐츠를 촬영 영상 내에 포함되도록 신호 처리한다(S760). 그리고, 공유 컨텐츠를 포함하는 촬영 영상을 외부로 전송한다(S770). 한편, 도 7의 제750 단계(S750) 내지 제770 단계(S770)는, 도 8의 제850 단계(S850) 내지 제870 단계(S870)에 대응한다.Next, the shared content is received (S750). In operation S760, the received shared content is signaled to be included in the captured image. In operation S770, the captured image including the shared content is transmitted to the outside. Meanwhile, steps 750 to 770 (S770) of FIG. 7 correspond to steps 850 to 870 (S870) of FIG. 8.

화상회의장치(50)의 제어부(260)는, 외부로부터 또는 저장부로부터, 공유 컨텐츠를 수신할 수 있다. 이러한 공유 컨텐츠는 화상 회의시, 공유할 컨텐츠로서, 상대측 화상회의장치로 전송가능한 컨텐츠일 수 있다. 예를 들어, 웹 문서, 프리젠 테이션 문서 등의 전자 문서 파일이거나, 음악 파일, 영상 파일 등의, 멀티미디어 파일 자료 등일 수 있다.The controller 260 of the video conference apparatus 50 may receive the shared content from the outside or from the storage. The shared content may be content to be shared in a video conference, and may be content that may be transmitted to a counterpart video conference apparatus. For example, it may be an electronic document file such as a web document, a presentation document, or a multimedia file material such as a music file or an image file.

본 발명의 실시예에서는, 화상회의장치(50)의 제어부(260)에 공유 컨텐츠가 입력되는 경우, 상대측 화상회의장치로 전송하던, 촬영 영상 내에, 공유 컨텐츠가 포함되도록 신호 처리하는 것을 그 특징으로 한다. According to an embodiment of the present invention, when shared content is input to the control unit 260 of the video conference apparatus 50, signal processing is performed so that the shared content is included in the captured image transmitted to the counterpart video conference apparatus. do.

즉, 촬영 영상 내에, 공유할 컨텐츠를 결합시켜, 상대측 화상회의장치로의 전송시, 촬영 영상만을 전송하는 것으로 한다. 촬영 영상과 공유 컨텐츠를 별도로 전송하는 종래의 방식에 비해, 데이터 전송량을 상당히 줄일 수 있게 되며, 그 전송 속도도 상당히 향상될 수 있다.That is, it is assumed that only the captured image is transmitted when the content to be shared is combined in the captured image and transmitted to the counterpart video conference apparatus. Compared with the conventional method of separately transmitting the captured image and the shared content, the data transmission amount can be significantly reduced, and the transmission speed can be significantly improved.

예를 들어, 공유할 컨텐츠가, 전자 문서 파일인 경우, 화상회의장치(50)의 제어부(260)는, 공유 오브젝트(940) 근방에, 또는 공유 오브젝트(940)와 중첩되도록, 전자 문서 파일을 배치하도록 제어할 수 있다. For example, when the content to be shared is an electronic document file, the control unit 260 of the video conferencing device 50 selects the electronic document file in the vicinity of the shared object 940 or overlaps with the shared object 940. Can be controlled to place

구체적으로, 도 9c와 같이, 제1 화상회의장치(50a)에 웹 문서가 표시되는 노트북(600)이 접속된 경우, 제1 화상회의장치(50a)는, 촬영 영상(910) 내에 공유 컨텐츠로서, 웹 문서(950)가 포함되도록 신호처리한다. 특히, 제어부(260) 내의, 영상처리부(320)는, 수신되는 촬영 영상(910)과 공유 컨텐츠를 믹싱하여, 촬영 영상 내에 공유 컨텐츠가 포함되도록, 공유 컨텐츠를 스케일링 처리할 수 있다. Specifically, as shown in FIG. 9C, when the notebook 600 displaying a web document is connected to the first video conferencing device 50a, the first video conferencing device 50a is shared content in the captured image 910. Signal the web document 950 to be included. In particular, the image processor 320 in the controller 260 may mix the received captured image 910 with the shared content to scale the shared content so that the shared content is included in the captured image.

이에 따라, 도 9c와 같이, 공유 컨텐츠(950)를 포함하는, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된, 자체 촬영 영상(910)과, 제2 영상표시장치(100b)의 촬영부(195b)에서 촬영된 상대측 촬영 영상(920)을 포함하는 회의 영상(900)이, 제1 화상회의장치(50a)에서 출력되어, 제1 영상표시장치(100a)에, 표시될 수 있다.Accordingly, as shown in FIG. 9C, the self-captured image 910 and the second image display apparatus 100b captured by the capturing unit 195a of the first image display apparatus 100a including the shared content 950. ), The conference image 900 including the counterpart captured image 920 captured by the image capturing unit 195b is outputted from the first video conference apparatus 50a, and displayed on the first image display apparatus 100a. Can be.

한편, 제어부(260)는, 공유 컨텐츠를 포함하는 촬영 영상 신호를, 네트워크(500)를 통해, 상대측 화상회의장치로 전송하도록 제어할 수 있다. On the other hand, the controller 260 may control to transmit the captured video signal including the shared content to the counterpart video conference apparatus through the network 500.

도 9c는, 제2 화상회의장치(50b)와 연결된 제2 영상표시장치(100b)에, 제1 화상회의장치(50a)로부터 수신되는 공유 컨텐츠를 포함하는 촬영 영상 신호가 수신되어, 제2 영상표시장치(100b)에, 공유 컨텐츠를 포함하는 촬영 영상(915)이 표시되는 것을 예시한다.FIG. 9C illustrates a second video display device 100b connected to the second video conference device 50b to receive a captured video signal including shared content received from the first video conference device 50a. For example, the display device 100b displays a captured image 915 including shared content.

한편, 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 촬영 영상 내에 포함되도록 신호 처리한다(S780). 한편, 도 7의 제780 단계(S780)는, 도 8의 제870 단계(S870)에 대응한다.In operation S780, a control object capable of controlling shared content is included in the captured image. Meanwhile, step 780 of FIG. 7 corresponds to step 870 of FIG. 8.

화상회의장치(50)의 제어부(260)는, 사용자 입력에 따라, 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트(control object)가 촬영 영상 내에 포함되도록 신호 처리를 수행할 수 있다.The controller 260 of the video conference apparatus 50 may perform signal processing so that a control object capable of controlling shared content is included in the captured image according to a user input.

예를 들어, 사용자의 로컬키 입력, 또는 원격제어장치 입력 또는, 터치 입력또는 사용자의 제스처 입력에 의해, 영상표시장치(100)에서 표시되는 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 표시되는 것이 가능하다.For example, a control object capable of controlling shared content displayed on the image display apparatus 100 may be displayed by a user's local key input, a remote controller input, or a touch input or a user's gesture input. Do.

이 중 사용자의 제스처 입력은, 상술한 바와 같이, 하나 이상의 카메라를 구비하는 촬영부(195)를 통해, 인식되는 사용자의 동작을 기반으로, 인식될 수 있다.As described above, the gesture input of the user may be recognized based on the recognized user's motion through the photographing unit 195 having one or more cameras.

한편, 컨트롤 오브젝트는, 공유 컨텐츠의 종류, 공유 컨텐츠의 데이터 크기, 화자의 선호도 등에 따라, 그 항목이 가변될 수 있다.Meanwhile, the control object may have a variable item according to the type of shared content, the data size of the shared content, the speaker's preference, and the like.

예를 들어, 공유 컨텐츠가 전자 문서 파일인 경우, 컨트롤 오브젝트는, 전자 문서 파일에 대한, 프린트 항목, 이메일 전송 항목, 휴대 단말기 전송 항목, 소셜 네트워크 서버 전송 항목, 확대/축소 항목, 이전/다음 페이지 이동 항목 중 적어도 하나를 포함할 수 있다.For example, if the shared content is an electronic document file, the control object may include a print item, email send item, mobile terminal send item, social network server send item, zoom item, previous / next page, for the electronic document file. It may include at least one of the moving items.

다른 예로, 공유 컨텐츠가 음악 파일인 경우, 컨트롤 오브젝트는, 음악 파일에 대한, 이메일 전송 항목, 휴대 단말기 전송 항목, 소셜 네트워크 서버 전송 항목, 볼륨 조절 항목 중 적어도 하나를 포함할 수 있다.As another example, when the shared content is a music file, the control object may include at least one of an email transmission item, a mobile terminal transmission item, a social network server transmission item, and a volume control item for the music file.

또 다른 예로, 공유 컨텐츠가 영상 파일인 경우, 컨트롤 오브젝트는, 영상 파일에 대한, 이메일 전송 항목, 휴대 단말기 전송 항목, 소셜 네트워크 서버 전송 항목, 확대/축소 항목, 채널 조정 항목, 볼륨 조절 항목 중 적어도 하나를 포함할 수 있다.As another example, when the shared content is a video file, the control object may include at least one of an email transmission item, a mobile terminal transmission item, a social network server transmission item, a zoom item, a channel adjustment item, and a volume control item for the image file. It may include one.

그 외, 공유 컨텐츠 파일의 사이즈가 커서, 컨트롤 오브젝트는, 다른 사용자와의 공유가 어려운 경우, 채널 조정 항목, 볼륨 조절 항목 등만을 포함하는 것도 가능하다.In addition, when the size of the shared content file is large and the control object is difficult to share with other users, the control object may include only a channel adjustment item, a volume adjustment item, and the like.

이러한 컨트롤 오브젝트에 대한 신호 처리는, 화상회의장치(50)의 제어부(260)에서 수행되며, 특히, OSD 생성부(340)에서, 컨트롤 오브젝트가 생성될 수 있다. 그리고, 믹서(345)는, 촬영 영상과, 생성된 컨트롤 오브젝트를 믹싱하여, 컨트롤 오브젝트를 포함하는 촬영 영상 신호를 출력할 수 있다.The signal processing for the control object is performed by the controller 260 of the video conferencing device 50. In particular, in the OSD generator 340, a control object may be generated. The mixer 345 may mix the photographed video with the generated control object and output a photographed video signal including the control object.

그리고, 화상회의장치(50)의 제어부(260)는, 컨트롤 오브젝트를 포함하는 촬영 영상을, 네트워크를 통해 상대측의 화상회의장치로, 전송하도록 제어할 수 있다. 이에 따라, 촬영 영상과 컨트롤 오브젝트를 별도로 전송하는 종래의 방식에 비해, 데이터 전송량을 상당히 줄일 수 있게 된다.The control unit 260 of the videoconferencing apparatus 50 can control the transmission of the captured video including the control object to the videoconferencing apparatus on the other side via the network. Accordingly, compared with the conventional method of separately transmitting the captured image and the control object, the data transmission amount can be considerably reduced.

도 9d는, 촬영 영상(910) 내에 공유 컨텐츠로서, 웹 문서(950)가 포함되며, 아울러, 웹 문서(950)를 컨트롤하기 위한, 이메일 전송 항목(962)과 프린트 항목(964)를 포함하는 컨트롤 오브젝트를 예시한다. 이러한 컨트롤 오브젝트는, 제1 화상회의장치(50a)와 연결된 제1 영상표시장치(100a), 제2 화상회의장치(50b)와 연결된 제2 영상표시장치(100b) 모두에, 각각 표시될 수 있다.FIG. 9D illustrates a web document 950 as shared content in the captured image 910, and also includes an e-mail sending item 962 and a print item 964 for controlling the web document 950. Example control object. Such a control object may be displayed on both the first video display device 100a connected to the first video conferencing device 50a and the second video display device 100b connected to the second video conferencing device 50b. .

다음, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행한다(S790). 한편, 도 7의 제790 단계(S790)는, 도 8의 제890 단계(S890)에 대응한다.Next, based on the selection input of the predetermined item in the control object, a corresponding operation on the shared content is performed (S790). Meanwhile, step 790 of FIG. 7 corresponds to step 890 of FIG. 8.

화상회의장치(50)의 제어부(260)는, 사용자 입력에 의한, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행하도록 제어한다.The control unit 260 of the video conferencing device 50 controls to perform a corresponding operation on the shared content based on a selection input of a predetermined item in the control object by a user input.

예를 들어, 사용자의 로컬키 입력, 또는 원격제어장치 입력 또는, 터치 입력또는 사용자의 제스처 입력에 의해, 영상표시장치(100)에 표시되는, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행하도록 제어할 수 있다. For example, based on a selection input of a predetermined item in a control object, which is displayed on the video display device 100 by a user's local key input, a remote controller input, or a touch input or a user's gesture input. Control to perform a corresponding operation on the content.

즉, 공유 컨텐츠에 대한, 프린트 항목, 이메일 전송 항목, 휴대 단말기 전송 항목, 소셜 네트워크 서버 전송 항목, 확대/축소 항목, 이전/다음 페이지 이동 항목, 채널 조정 항목, 볼륨 조절 항목 중 어느 하나에 대응하는 동작을 수행하도록 제어할 수 있다.That is, corresponding to any one of a print item, an email transmission item, a mobile terminal transmission item, a social network server transmission item, a zoom item, a previous / next page moving item, a channel adjustment item, and a volume control item for the shared content. Control to perform an operation.

도 9e는, 이메일 전송 항목(962)과 프린트 항목(964) 중 이메일 전송 항목(962)이 선택되는 것을 예시한다. 이에 따라, 제1 화상회의장치(50a)의 제어부(260)는, 공유 컨텐츠(950)를, 이메일 전송하도록 제어할 수 있다. 이메일 수신 대상은, 미리 설정된 대상이거나, 제2 화상회의장치(50b)일 수 있다.9E illustrates that an email sending item 962 is selected from an email sending item 962 and a print item 964. Accordingly, the control unit 260 of the first video conferencing device 50a can control the shared content 950 to be sent by e-mail. The e-mail receiving target may be a preset target or the second video conferencing device 50b.

도 9e에서는, 공유 오브젝트(930)를 드래그(drag)하여, 이메일 전송 항목(962)으로 드랍(drop)하는 것을 예시한다. 이러한 드래그 앤 드랍 동작은, 사용자의 제스처, 포인팅 장치의 포인터를 이용하여 수행되는 것이 가능하다.In FIG. 9E, the shared object 930 is dragged and dropped to the email transmission item 962. The drag and drop operation may be performed by using a gesture of a user and a pointer of a pointing device.

그 외, 드래그 앤 드랍 외에, 공유 오브젝트(930)의 선택 입력, 및 이메일 전송 항목(962)의 선택 입력에 의해, 도 9e와 같이, 이메일 전송 항목(962)이 선택되는 것도 가능하다. 또는, 공유 오브젝트(930)의 선택 입력 없이, 바로 이메일 전송 항목(962)의 선택 입력에 의해, 이메일 전송 항목(962)이 선택되는 것도 가능하다.In addition to drag and drop, the e-mail transmission item 962 may be selected as shown in FIG. 9E by the selection input of the shared object 930 and the selection input of the e-mail transmission item 962. Alternatively, the email transmission item 962 may be selected directly by the selection input of the email transmission item 962 without the selection input of the shared object 930.

이와 같이, 화상 회의시, 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 공유 컨텐츠에 대한 해당 동작을 수행함으로써, 사용자의 이용 편의성을 증대시킬 수 있게 된다.As described above, when the video conference is performed, the user's ease of use can be increased by performing the corresponding operation on the shared content based on the selection input of the predetermined item in the control object.

한편, 이러한 선택 동작에 대한 화면은, 도 9d와 같이, 제1 화상회의장치(50a)와 연결된 제1 영상표시장치(100a), 제2 화상회의장치(50b)와 연결된 제2 영상표시장치(100b) 모두에, 각각 표시될 수 있다.On the other hand, the screen for the selection operation, as shown in Fig. 9d, the first video display device 100a connected to the first video conferencing device 50a, the second video display device connected to the second video conferencing device 50b ( 100b) may be indicated in both.

한편, 도 9d와 도 9e는, 컨트롤 오브젝트 내의 항목인, 이메일 전송 항목(962)과 프린트 항목(964)가 공유 컨텐츠(950)과 별도 영역에 배치되어 표시되는 것을 예시하나, 이와 달리 다양한 변형이 가능하다.9D and 9E illustrate an example in which an e-mail transmission item 962 and a print item 964, which are items in a control object, are displayed in a separate area from the shared content 950, but various modifications may be made. It is possible.

즉, 도 9f와 도 9g와 같이, 컨트롤 오브젝트 내의 항목인, 이메일 전송 항목(962)과 프린트 항목(964)가 공유 컨텐츠(950)이, 공유 컨텐츠(950) 내에 배치되는 것도 가능하다. 즉, 외부로부터 입력되는 공유 컨텐츠 상에, 이메일 전송 항목(962)과 프린트 항목(964)을 오버레이시키는 것도 가능하다. 이에 따라, 촬영 영상 영역을 더 확보할 수 있게 되어, 화상 회의시의 집중도를 높일 수도 있게 된다.That is, as shown in FIGS. 9F and 9G, the email transmission item 962 and the print item 964, which are items in the control object, may be disposed in the shared content 950. That is, it is also possible to overlay the email transmission item 962 and the print item 964 on the shared content input from the outside. As a result, the captured video region can be further secured, thereby increasing the concentration in the video conference.

도 10a 내지 도 10b는 컨트롤 오브젝트의 다양한 예를 예시한다.10A-10B illustrate various examples of control objects.

먼저, 도 10a는, 2D의 컨트롤 오브젝트로서, 원형의 컨트롤 오브젝트(970)를 예시한다. 도면과 같이, 공유 컨텐츠(950) 위에, 별도 영역에, 이메일 전송 항목(972), 프린트 항목(974), 데이터 전송 항목(976)을 포함하는 컨트롤 오브젝트(970)가 원형 형상으로 배치될 수 있다.First, FIG. 10A illustrates a circular control object 970 as a 2D control object. As shown in the drawing, a control object 970 including an e-mail transmission item 972, a print item 974, and a data transmission item 976 may be disposed in a circular shape on a shared area 950. .

사용자 입력에 의해, 원형의 컨트롤 오브젝트(970)를 회전시켜, 특정 항목을 선택하거나, 별도 회전 없이, 특정 영역 선택에 의해, 특정 항목을 선택할 수 있다.By the user input, the circular control object 970 may be rotated to select a specific item, or a specific item may be selected by selecting a specific region without additional rotation.

다음, 도 10b는, 입체 형상의 컨트롤 오브젝트(980)를 예시한다. 도면과 같이, 공유 컨텐츠(950) 위에, 별도 영역에, 이메일 전송 항목(982), 프린트 항목(984), 데이터 전송 항목(986)을 포함하는 컨트롤 오브젝트(980)가 육면체 형상으로 배치될 수 있다.Next, FIG. 10B illustrates a three-dimensional control object 980. As shown in the drawing, a control object 980 including an email transmission item 982, a print item 984, and a data transmission item 986 may be disposed in a hexahedral shape in a separate area on the shared content 950. .

사용자 입력에 의해, 육면체 형상의 컨트롤 오브젝트(980)를 회전시켜, 특정 항목을 선택하거나, 별도 회전 없이, 특정 영역 선택에 의해, 특정 항목을 선택할 수 있다.By the user input, the hexahedral control object 980 may be rotated to select a specific item, or a specific item may be selected by selecting a specific region without additional rotation.

한편, 컨트롤 오브젝트로서, 도 10a에서는, 2D의 컨트롤 오브젝트(970)를 예시하며, 도 10b에서는, 입체 형상의 컨트롤 오브젝트(980)를 예시하나, 이러한 컨트롤 오브젝트의 형상은, 사용자 설정에 의해 가변 가능하다. 예를 들어, 화상 회의 전 또는 화상 회의 중, 설정 메뉴를 이용하여, 컨트롤 오브젝트의 형상을 결정하는 것이 가능하다.10A illustrates a 2D control object 970 and FIG. 10B illustrates a three-dimensional control object 980, but the shape of the control object can be changed by user setting. Do. For example, it is possible to determine the shape of the control object using the setting menu before or during video conference.

한편, 컨트롤 오브젝트는, 소정 사용자 입력에 의해 표시 가능하다. 예를 들어, 화상 회의 중, 어느 한 사용자 또는 화자가, 격자패턴 시트(930)를 들어올렸다가 내리는 등의 특정 패턴의 행동을 수행한 경우, 이를 컨트롤 오브젝트 표시 입력으로 인식하고, 해당 컨트롤 오브젝트가 표시되도록 제어할 수 있다. 이러한, 특정 패턴의 행동은, 화상 회의 전 또는 화상 회의 중, 설정 메뉴를 이용하여, 결정하는 것이 가능하다.On the other hand, the control object can be displayed by a predetermined user input. For example, when a user or a speaker performs a specific pattern of actions such as lifting and lowering the grid pattern sheet 930 during a video conference, the user recognizes this as a control object display input, and the control object You can control the display. Such a specific pattern of behavior can be determined using a setting menu before or during a video conference.

이하에서는, 육면체 형상인, 가상(augmented)의 컨트롤 오브젝트를 이용하여, 화상 회의시, 사용자가 원하는, 컨트롤 오브젝트 내의 항목을 선택하는 것을 설명한다.In the following, using an augmented control object having a hexahedron shape, selecting an item in the control object desired by the user during a video conference will be described.

도 11a는, 사용자의 제1 손가락(1010)을 이용하여, 가상의 컨트롤 오브젝트(980)를 회전시키고, 선택하는 것을 예시한다.11A illustrates rotating and selecting a virtual control object 980 using a first finger 1010 of the user.

화상회의장치(50)는, 촬영부(195)를 통해, 사용자의 제1 손가락(1010)의 이동을 감지할 수 있다.The video conference apparatus 50 may detect the movement of the first finger 1010 of the user through the photographing unit 195.

가상의 컨트롤 오브젝트(980)의 3개 면에, 각각 이메일 전송 항목(982), 프린트 항목(984), 데이터 전송 항목(986)이 배치되어 표시되는 경우, 사용자의 제1 손가락(1010)이 좌측 회전을 나타내는 경우, 도 11a의 (a)의 가상의 컨트롤 오브젝트(980)가 좌측 회전하여, 도 11a의 (b)와 같은, 가상의 컨트롤 오브젝트(980)가 표시될 수 있다. 그리고, 다시, 사용자의 제1 손가락(1010)이 구부러져, 클릭을 나타내는 경우, 도 11a의 (c)와 같이, 육면체 중 가장 상면에 위치하는, 프린터 항목(986)이 선택되는 것으로 설정할 수 있다. 이에 의해, 사용자는 직관적으로, 원하는 가상의 컨트롤 오브젝트(980) 내의 항목을 선택할 수 있게 된다.When the e-mail sending item 982, the print item 984, and the data sending item 986 are disposed and displayed on three sides of the virtual control object 980, respectively, the first finger 1010 of the user is left. In the case of rotation, the virtual control object 980 of FIG. 11A (a) is rotated to the left so that the virtual control object 980, as shown in FIG. 11A (b), may be displayed. Then, when the user's first finger 1010 is bent to indicate a click, the printer item 986 located on the uppermost surface of the cube may be selected as shown in FIG. 11A (c). This allows the user to intuitively select an item in the desired virtual control object 980.

도 11b는, 촬영부(195)가, 실제의 격자패턴 시트(930)와, 사용자의 제1 손가락(1010)을 촬영하는 것을 예시한다. 11B illustrates that the photographing unit 195 photographs the actual grid pattern sheet 930 and the first finger 1010 of the user.

화상회의장치(50)의 제어부(260)는, 격자패턴 시트(930)와, 사용자의 제1 손가락(1010) 사이의 거리, 회전 방향 등을 고려하여, 제1 손가락(1010)의 좌측 회전에 의한, 가상의 컨트롤 오브젝트(980)의 좌측 회전 입력, 또는, 제1 손가락(1010)의 구부림에 의한, 가상의 컨트롤 오브젝트(980)의 선택 입력이 있음을 감지할 수 있다.The control unit 260 of the video conferencing device 50 controls the left rotation of the first finger 1010 in consideration of the distance between the grid pattern sheet 930 and the first finger 1010 of the user, the rotation direction, and the like. May detect that there is a left input of rotation of the virtual control object 980, or a selection input of the virtual control object 980 by bending the first finger 1010.

한편, 도면에서는 촬영부(195)가 하나의 카메라 렌즈를 구비하는 것으로 예시하나, 격자패턴 시트(930)과 사용자의 제1 손가락(1010) 사이의 거리, 촬영부(195)와 격자패턴 시트(930) 사이의 거리, 촬영부(195)와 사용자의 제1 손가락(1010) 사이의 거리 등을 측정하기 위해, 적어도 2개의 카메라 렌즈를 구비하는 것이 가능하다. 또는, 서로 이격되어 배치되는 복수의 촬영부가 사용되는 것도 가능하다.In the drawing, the photographing unit 195 includes one camera lens, but the distance between the grating pattern sheet 930 and the first finger 1010 of the user, the photographing unit 195 and the grating pattern sheet ( At least two camera lenses may be provided to measure the distance between the camera 930 and the distance between the photographing unit 195 and the user's first finger 1010. Alternatively, a plurality of photographing units arranged to be spaced apart from each other may be used.

한편, 화상회의장치(50)의 제어부(260)는, 사용자의 제1 손가락(1010) 자체를 인식하거나, 또는 제1 손가락(1010)에 착용된 골무 등을 인식하는 것도 가능하다. The controller 260 of the videoconferencing apparatus 50 may recognize the first finger 1010 itself of the user or the thimble worn on the first finger 1010.

한편, 이와 달리, 촬영부(195)가, 사용자의 두 개의 손가락을 촬영하여, 두 개의 손가락 사이의 거리, 회전 등을 고려하여, 사용자 입력의 회전 입력, 선택 입력 등을 감지하는 것도 가능하다.In contrast, the photographing unit 195 may photograph two fingers of the user and detect a rotational input, a selection input, or the like of the user input in consideration of the distance between the two fingers and the rotation.

도 11c는, 사용자의 두 개의 손가락, 구체적으로 엄지 손가락(1020), 검지 손가락(1010) 사이의 거리, 위치 등을 고려하여, 좌측 회전 입력을 감지하는 것을 예시한다.FIG. 11C illustrates sensing the left rotational input in consideration of a distance, a position, and the like between two fingers of the user, specifically, the thumb 1020 and the index finger 1010.

도 11c의 (a)와 같이, 두 개의 손가락 위치(1010,1020)가 평행한 경우, 도 11c의 (c)와 같이, 제어부(260)는, 각각의 좌표가, (4,0.8), (1,1)인 것으로 감지할 수 있다.When two finger positions 1010 and 1020 are parallel as shown in FIG. 11C, as shown in FIG. 11C, the control unit 260 has coordinates of (4,0.8) and ( 1, 1).

다음, 도 11c의 (b)와 같이, 엄지 손가락(1020)이 검지 손가락(1010) 보다 밑에 위치하는 경우, 도 11c의 (d)와 같이, 제어부(260)는, 각각의 좌표가, (1,1), (-1,-2)인 것으로 감지할 수 있다. 이에 따라, 가상의 컨트롤 오브젝트(980)가 좌측 회전하는 것으로 감지할 수 있다. 도 11c(b)는, 좌측 회전된 가상의 컨트롤 오브젝트(980)를 예시한다. 이에 따라, 도 11c(a)와 달리, 도 11c(b)에서는, 프린트 항목이 육면체 중 가장 상면에 위치하는 것으로 나타나게 된다.Next, as shown in (b) of FIG. 11C, when the thumb 1020 is positioned below the index finger 1010, as shown in (d) of FIG. 11C, the control unit 260 has respective coordinates (1). , 1), and (-1, -2). Accordingly, the virtual control object 980 may be detected to rotate left. 11C (b) illustrates the virtual control object 980 rotated leftward. Accordingly, unlike FIG. 11C (a), in FIG. 11C (b), the print item appears to be located on the uppermost surface of the hexahedron.

이와 같은 방식으로, 가상의 컨트롤 오브젝트(980)를 이동, 회전, 및 선택함으로써, 사용자는 간편하게, 공유 컨텐츠와 관련된, 컨트롤 항목들 중, 원하는 항목을 용이하게 선택할 수 있게 되어, 사용자의 이용 편의성이 증대될 수 있다.In this manner, by moving, rotating, and selecting the virtual control object 980, the user can easily select a desired item among the control items related to the shared content, so that the user's ease of use Can be increased.

도 12a는, 공유 컨텐츠(1250)를 프린트하는 동작의 일예를 예시한다.12A illustrates an example of an operation for printing shared content 1250.

도 12a의 (a)와 같이, 공유 오브젝트(940)를, 컨트롤 오브젝트(980)에 접근시킨다. 그리고, 도 12a의 (b)와 같이, 컨트롤 오브젝트(980)를 회전시켜, 도 12a의 (c)와 같이, 컨트롤 오브젝트(980) 내의 프린트 항목이 육면체 중 가장 상면에 위치하는 경우, 컨트롤 오브젝트(980) 중 프린트 항목이 선택될 수 있다. 이에 따라, 공유 컨텐츠(1250)를 프린트하는 동작이 수행될 수 있다. 이때, 도 12a의 (c)와 같이, 프린트 중임을 나타내는 오브젝트(1210)가 함께 표시되는 것이 가능하다. 이에 의해, 사용자는, 프린트 동작 중임을 직관적으로 알 수 있게 된다.As shown in FIG. 12A, the shared object 940 is brought close to the control object 980. 12A and 12B, the control object 980 is rotated, and as shown in FIG. 12AC, when the print item in the control object 980 is located on the uppermost surface of the hexahedron, the control object ( A print item of 980 may be selected. Accordingly, an operation of printing the shared content 1250 may be performed. In this case, as shown in (c) of FIG. 12A, the object 1210 indicating that the printer is printing may be displayed together. As a result, the user can intuitively know that the print operation is in progress.

한편, 도 12a와 달리, 공유 오브젝트(940)를 공유 컨텐츠(1250)에 접근시키고, 컨트롤 오브젝트(980)를 회전시켜, 컨트롤 오브젝트(980) 중 원하는 항목을 선택하는 것도 가능하다. On the other hand, unlike FIG. 12A, it is also possible to access the shared object 1940 to the shared content 1250, rotate the control object 980, and select a desired item from the control object 980.

다음, 도 12b는, 공유 컨텐츠(1250)를 이메일 전송하는 동작의 일 예를 예시한다.Next, FIG. 12B illustrates an example of an operation of e-mailing the shared content 1250.

도 12b의 (a)와 같이, 공유 오브젝트(940)를, 공유 컨텐츠(1250)에 접근시킨다. 그리고, 도 12b의 (b)와 같이, 공유 오브젝트(940)를, 다시 이동시켜, 컨트롤 오브젝트 중 이메일 항목(962)에 접근시키는 경우, 컨트롤 오브젝트 중 이메일 항목(962)이 선택될 수 있다. 이에 따라, 공유 컨텐츠(1250)를 이메일 전송하는 동작이 수행될 수 있다. 이에 의해, 사용자는, 공유 컨텐츠(1250)의 이메일 전송을 간편하게 수행할 수 있게 된다.As shown in FIG. 12B, the shared object 940 is approached to the shared content 1250. 12B, when the shared object 940 is moved again to access the email item 962 of the control object, the email item 962 of the control object may be selected. Accordingly, an operation of sending an email of the shared content 1250 may be performed. As a result, the user can easily perform an email transmission of the shared content 1250.

도 12b의 방식은, 결국, 공유 오브젝트(940)의 선택 입력, 공유 컨텐츠(1250)의 선택 입력, 및 이메일 항목(962)의 선택 입력에 의해, 수행되는 것에 대응한다. The approach of FIG. 12B eventually corresponds to that performed by the selection input of the shared object 940, the selection input of the shared content 1250, and the selection input of the email item 962.

다음, 도 12c는, 공유 컨텐츠(1250)를 프린트하는 동작의 다른 예를 예시한다.Next, FIG. 12C illustrates another example of an operation of printing the shared content 1250.

도 12c의 (a)와 같이, 공유 오브젝트(940)를, 공유 컨텐츠(1250)에 접근시킨다. 그리고, 도 12c의 (b)와 같이, 공유 오브젝트(940)를, 다시 이동시켜, 컨트롤 오브젝트 중 프린트 항목(964)에 접근시키는 경우, 컨트롤 오브젝트 중 프린트 항목(964)이 선택될 수 있다. 이에 따라, 공유 컨텐츠(1250)를 프린트하는 동작이 수행될 수 있다. 이에 의해, 사용자는, 공유 컨텐츠(1250)의 프린트 동작을 간편하게 수행할 수 있게 된다.As shown in FIG. 12C, the shared object 940 is approached to the shared content 1250. 12C, when the shared object 940 is moved again to access the print item 964 of the control object, the print item 964 of the control object may be selected. Accordingly, an operation of printing the shared content 1250 may be performed. As a result, the user may easily perform a print operation of the shared content 1250.

도 13a 내지 도 13c는, 컨트롤 오브젝트의 항목 중 확대/축소 항목이 선택되는 것을 예시한다.13A to 13C illustrate that an enlargement / reduction item is selected among the items of the control object.

화상회의장치(50)에 연결된 영상표시장치(100)는, 공유 오브젝트(1340), 공유 컨텐츠(1350), 축소 항목(1362)과 확대 항목(1364)을 포함하는 컨트롤 오브젝트를 포함하는 촬영 영상을 표시할 수 있다.The video display device 100 connected to the video conferencing device 50 may capture a captured image including a control object including a shared object 1340, shared content 1350, a reduced item 1342, and an enlarged item 1344. I can display it.

사용자 입력에 의해, 도 13b와 같이, 공유 오브젝트(1340)가 선택되어, 축소 항목(1362)으로 이동되는 경우, 컨트롤 오브젝트 중 축소 항목(1362)이 선택되는 것으로 하여, 화상회의장치(50)에 연결된 영상표시장치(100)는, 공유 컨텐츠(1350)를 축소하여, 축소된 공유 컨텐츠(1355)를 표시할 수 있다.13B, when the shared object 1340 is selected and moved to the reduced item 1322 by the user input, the reduced item 1136 is selected among the control objects, and the video conferencing device 50 is selected. The connected image display apparatus 100 may reduce the shared content 1350 and display the reduced shared content 1355.

한편, 사용자 입력에 의해, 도 13c와 같이, 공유 오브젝트(1340)가 선택되어, 확대 항목(1364)으로 이동되는 경우, 컨트롤 오브젝트 중 확대 항목(1364)이 선택되는 것으로 하여, 화상회의장치(50)에 연결된 영상표시장치(100)는, 축소된 공유 컨텐츠(1355)를 다시 확대하여, 확대된 공유 컨텐츠(1360)를 표시할 수 있다. 이에 따라, 사용자가 원하는 동작을 간편하게 수행할 수 있게 된다.On the other hand, when the shared object 1340 is selected and moved to the enlarged item 1164 by the user input, the enlarged item 1164 is selected among the control objects, and thus the video conferencing device 50 is selected. The image display apparatus 100 connected to FIG. 1) may enlarge the reduced shared content 1355 to display the enlarged shared content 1360. Accordingly, the user can easily perform the desired operation.

도 14a 내지 도 14e는 공유 컨텐츠를 화자로 설정하는 것을 예시한다.14A-14E illustrate setting shared content as a speaker.

먼저, 도 14a는, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된 자체 촬영 영상(1410)과, 제2 영상표시장치(100b)의 촬영부(195b)에서 촬영된 상대측 촬영 영상(1420)을 포함하는 회의 영상(1400)이, 제1 화상회의장치(50a)에서 출력되어, 제1 영상표시장치(100a)에, 표시되는 것을 예시한다. First, FIG. 14A illustrates a self-captured image 1410 captured by the capturing unit 195a of the first image display apparatus 100a and a counterpart photographed captured by the capturing unit 195b of the second image display apparatus 100b. The conference image 1400 including the image 1420 is output from the first video conference apparatus 50a and is displayed on the first image display apparatus 100a.

한편, 역으로, 제2 영상표시장치(100b)의 촬영부(195b)에서 촬영된 자체 촬영 영상(1425)과, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된 상대측 촬영 영상(1415)을 포함하는 회의 영상(1405)이, 제2 화상회의장치(50b)에서 출력되어, 제2 영상표시장치(100b)에, 표시될 수 있다.On the other hand, on the contrary, the self-captured image 1425 captured by the capturing unit 195b of the second image display apparatus 100b and the counterpart photographed image captured by the capturing unit 195a of the first image display apparatus 100a. The conference image 1405 including the 1415 may be output from the second video conference apparatus 50b and displayed on the second image display apparatus 100b.

공유 오브젝트는, 화상회의장치의 촬영부에서 촬영된 영상 내의 소정 오브젝트로서 정해질 수 있다. 도 14a 내지 도 14e에서는, 촬영된 영상 내의 다수의 화자(speaker) 중 적어도 하나를 공유 오브젝트로서 설정하는 것을 예시한다.The shared object may be determined as a predetermined object in the image photographed by the photographing unit of the videoconferencing apparatus. 14A to 14E illustrate setting at least one of a plurality of speakers in a captured image as a shared object.

도 14a는, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된 자체 촬영 영상(1410) 내의 제1 화자, 제2 화자, 제3 화자에 대응하는 이미지를 각각 공유 오브젝트로서 설정하는 것을 예시한다. 그리고, 이러한 공유 오브젝트들은, 화상 회의시 미리 등록된 것으로서, 다른 오브젝트와 구별되도록, 하이라이트 표시될 수 있다. 도 14a에서는, 각 공유 오브젝트들 주위에 박스 처리(1432,1434,1436)가 되는 것을 예시한다. FIG. 14A illustrates an image corresponding to the first speaker, the second speaker, and the third speaker in the self-captured image 1410 captured by the capturing unit 195a of the first image display apparatus 100a as a shared object. Illustrate that. These shared objects may be highlighted so as to be distinguished from other objects as previously registered in a video conference. In FIG. 14A, box processing 1432, 1434, and 1436 are illustrated around each shared object.

다음, 도 14b는 도 14a와 달리, 제1 화자, 제2 화자, 제3 화자에 대응하는 공유 오브젝트(1442,1444,1446)가 별도로 생성되어, 제1 화자, 제2 화자, 제3 화자에 대응하는 이미지 인근에, 별도로 표시되는 것을 예시한다. 각 화자 별로 구별 가능하도록, 서로 다른 공유 오브젝트로서 표시되는 것이 바람직하다. Next, in FIG. 14B, unlike FIG. 14A, shared objects 1442, 1444, and 1446 corresponding to the first speaker, the second speaker, and the third speaker are separately generated, and thus, the first speaker, the second speaker, and the third speaker are separately generated. In the vicinity of the corresponding image, it is illustrated separately. It is preferable to be displayed as different shared objects so as to be distinguishable for each speaker.

이때, 우선 순위 있는 공유 오브젝트를 파악하기 위해, 어느 하나의 공유 오브젝트에 대해, 우선권이 부여되는 것이 가능하다. 도 14b에서는, 우선권을 가진, 제1 공유 오브젝트(1442) 주위에 박스 처리(1443)가 되는 것을 예시한다. At this time, in order to grasp the priority shared object, priority may be given to any one shared object. In FIG. 14B, the box processing 1443 is illustrated around the first shared object 1442 having the priority.

한편, 도 14c와 같이, 제1 화상회의장치(50a)에 웹 문서가 표시되는 노트북(600)이 접속된 경우, 제1 화상회의장치(50a)는, 촬영 영상(1410) 내의, 제1 공유 오브젝트(1442) 근방에, 공유 컨텐츠(1450)가 배치되도록, 신호 처리한다.On the other hand, as shown in FIG. 14C, when the notebook 600 for displaying a web document is connected to the first video conference apparatus 50a, the first video conference apparatus 50a shares a first share in the captured image 1410. Signal processing is performed so that the shared content 1450 is arranged near the object 1442.

다음, 사용자 입력이 있는 경우, 도 14d와 같이, 촬영 영상(1410) 내에 공유 컨텐츠로서, 웹 문서(1450)가 포함되며, 아울러, 웹 문서(1450)를 컨트롤하기 위한, 이메일 전송 항목(1462)과 프린트 항목(1464)를 포함하는 컨트롤 오브젝트가, 제1 영상표시장치(100a)에, 표시될 수 있다.Next, when there is a user input, as shown in FIG. 14D, a web document 1450 is included as the shared content in the captured image 1410, and an email transmission item 1462 for controlling the web document 1450 is also included. And a control object including the print item 1464 may be displayed on the first image display apparatus 100a.

다음, 도 14e와 같이, 사용자 입력에 의해, 컨트롤 오브젝트 중 이메일 전송 항목(1462)이 선택되는 경우, 공유 컨텐츠에 대한, 이메일 전송이 수행될 수 있다. 특히, 공유 오브젝트가, 제1 화자에 대한 공유 오브젝트이므로, 제1 화자에게, 공유 컨텐츠를 이메일 전송하는 동작이 수행될 수 있다. 이에 따라, 사용자의 이용 편의성이 증대될 수 있다.Next, as illustrated in FIG. 14E, when an email transmission item 1462 is selected among control objects by user input, an email transmission may be performed on the shared content. In particular, since the shared object is a shared object for the first speaker, an operation of emailing the shared content to the first speaker may be performed. Accordingly, the usability of the user can be increased.

한편, 제1 화자 외에, 제2 화자, 제3 화자 또는, 상대측의 화자 또는 그에 대응하는 공유 오브젝트 등이 선택되는 경우, 해당 화자에게도, 이메일 전송, 휴대폰 전송 등 공유 컨텐츠의 선택 항목 동작을 용이하게 수행할 수 있다.On the other hand, when the second speaker, the third speaker, the other party's speaker, or a shared object corresponding thereto is selected in addition to the first speaker, the corresponding speaker can easily operate selection items of shared content such as e-mail transmission or mobile phone transmission. Can be done.

도 15는 본 발명의 다른 실시예에 따른 화상회의장치의 동작방법을 보여주는 순서도이다.15 is a flowchart illustrating a method of operating a videoconferencing apparatus according to another embodiment of the present invention.

도 15의 화상화의장치의 동작방법은, 도 3과 같이, 화상회의 시스템(10) 하에서의 화상회의장치와 영상표시장치가 하나의 장치로서 결합된 것을 전제로 기술한다. 이에 따라, 도 7의 동작방법에서의, 해당 촬영 영상의 신호 처리 단계(S730,S760,S780)는, 각각 도 15의 해당 촬영 영상의 표시 단계(S1530,S1560,S1580) 등에 대응할 수 있다.The operating method of the apparatus of the imaging of FIG. 15 is described on the premise that, as in FIG. 3, the videoconferencing apparatus and the video display apparatus under the videoconferencing system 10 are combined as one apparatus. Accordingly, the signal processing steps S730, S760, and S780 of the captured image in the operating method of FIG. 7 may correspond to display steps S1530, S1560, S1580, and the like of the captured image of FIG. 15, respectively.

한편, 도 7과 달리, 촬영된 영상을 표시하는 단계(S1515)가 더 수행될 수 있다. Meanwhile, unlike FIG. 7, an operation (S1515) of displaying the captured image may be further performed.

즉, 9a와 같이, 디스플레이를 구비하는 제1 화상표시장치(100a)에, 촬영부(195a)에서 촬영된 자체 촬영 영상(1410)과, 제2 영상표시장치(100b)의 촬영부(195b)에서 촬영된 상대측 촬영 영상(1420)을 포함하는 회의 영상(1400)이, 표시될 수 있다.That is, as shown in 9a, the first image display apparatus 100a including the display includes a self-captured image 1410 photographed by the photographing unit 195a and a photographing unit 195b of the second image display apparatus 100b. The conference image 1400 including the counterpart photographed image 1420 captured at may be displayed.

한편, 역으로, 제2 영상표시장치(100b)의 촬영부(195b)에서 촬영된 자체 촬영 영상(1425)과, 제1 영상표시장치(100a)의 촬영부(195a)에서 촬영된 상대측 촬영 영상(1415)을 포함하는 회의 영상(1405)이, 디스플레이를 구비하는 제2 영상표시장치(100b)에, 표시될 수 있다.On the other hand, on the contrary, the self-captured image 1425 captured by the capturing unit 195b of the second image display apparatus 100b and the counterpart photographed image captured by the capturing unit 195a of the first image display apparatus 100a. The conference image 1405 including the 1415 may be displayed on the second image display apparatus 100b having a display.

그 외의 동작 사항은, 도 7 내지 도 14e의 설명 내용에 대응한다.Other operation matters correspond to the description contents of FIGS. 7 to 14E.

본 발명에 따른 화상회의장치, 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The videoconferencing apparatus and its operation method according to the present invention are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all or all of the embodiments so that various modifications can be made. Some may be optionally combined.

한편, 본 발명의 화상회의장치의 동작방법은 화상회의장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the operating method of the videoconferencing apparatus of the present invention can be embodied as processor-readable codes on a processor-readable recording medium provided in the videoconferencing apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium that can be read by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet . In addition, the processor-readable recording medium may be distributed over network-connected computer systems so that code readable by the processor in a distributed fashion can be stored and executed.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

Claims (20)

촬영 영상을 수신하는 단계;
수신되는 공유 컨텐츠를 상기 촬영 영상 내에 포함되도록 신호 처리하는 단계;
상기 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 상기 촬영 영상 내에 포함되도록 신호 처리하는 단계; 및
상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 상기 공유 컨텐츠에 대한 해당 동작을 수행하는 단계;를 포함하는 것을 특징으로 하는 화상회의장치의 동작방법.
Receiving a captured image;
Signal processing the received shared content to be included in the captured image;
Signal processing such that a control object capable of controlling the shared content is included in the captured image; And
And performing a corresponding operation on the shared content on the basis of a selection input of a predetermined item in the control object.
제1항에 있어서,
상기 촬영 영상 내의 소정 오브젝트를 공유 오브젝트로 신호 처리하는 단계;를 더 포함하고,
상기 공유 컨텐츠는, 상기 공유 오브젝트의 위치에 대응하여, 상기 촬영 영상 내에 배치되는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
And processing a predetermined object in the captured image as a shared object.
And the shared content is disposed in the captured image corresponding to the position of the shared object.
제1항에 있어서,
상기 공유 오브젝트를 포함하는 촬영 영상을 외부로 전송하는 단계; 및
상기 공유 컨텐츠를 포함하는 촬영 영상을 외부로 전송하는 단계;를 더 포함하는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
Transmitting a captured image including the shared object to the outside; And
And transmitting the captured image including the shared content to the outside.
제1항에 있어서,
상기 컨트롤 오브젝트는, 상기 공유 컨텐츠에 대한 동작 가능 항목을 포함하며, 상기 공유 컨텐츠의 종류 또는 데이터 크기에 따라, 상기 동작 가능 항목이 가변되는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
The control object includes an operable item for the shared content, and the operable item is variable according to the type or data size of the shared content.
제1항에 있어서,
상기 컨트롤 오브젝트 내의 소정 항목은, 상기 공유 컨텐츠에 대한, 프린트 항목, 이메일 전송 항목, 휴대 단말기 전송 항목, 소셜 네트워크 서버 전송 항목, 확대/축소 항목, 이전/다음 페이지 이동 항목, 채널 조정 항목, 볼륨 조절 항목 중 적어도 하나를 포함하는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
The predetermined item in the control object may include a print item, an email transmission item, a mobile terminal transmission item, a social network server transmission item, a zoom item, a previous / next page moving item, a channel adjustment item, and a volume control on the shared content. And at least one of the items.
제2항에 있어서,
상기 공유 컨텐츠에 대한 해당 동작을 수행하는 단계는,
상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력 외에, 상기 공유 오브젝트의 선택 입력, 또는 상기 공유 컨텐츠의 선택 입력 중 적어도 하나에 더 기초하여, 수행되는 것을 특징으로 하는 화상회의장치의 동작방법.
3. The method of claim 2,
Performing a corresponding operation on the shared content,
And based on at least one of a selection input of the shared object or a selection input of the shared content, in addition to a selection input of a predetermined item in the control object.
제1항에 있어서,
상기 공유 컨텐츠에 대한 해당 동작을 수행하는 단계는,
상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력, 및 상기 공유 컨텐츠의 선택 입력에 기초하여, 수행되는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
Performing a corresponding operation on the shared content,
And a selection input of a predetermined item in the control object and a selection input of the shared content.
제1항에 있어서,
상기 공유 컨텐츠를 포함하는 촬영 영상을 표시하는 단계; 및
상기 컨트롤 오브젝트를 포함하는 촬영 영상을 표시하는 단계;를 더 포함하는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
Displaying a captured image including the shared content; And
And displaying a captured image including the control object.
제1항에 있어서,
상기 촬영 영상 내의 소정 오브젝트와 관련한 공유 오브젝트를 표시하는 단계;를 더 포함하며,
상기 공유 컨텐츠는, 상기 공유 오브젝트의 위치에 대응하여, 상기 촬영 영상 내에 배치되는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
Displaying a shared object related to a predetermined object in the captured image;
And the shared content is disposed in the captured image corresponding to the position of the shared object.
제1항에 있어서,
상기 촬영 영상 내의 화자와 관련한 공유 오브젝트를 표시하는 단계;
상기 공유 컨텐츠에 대한 해당 동작을 수행하는 단계는,
상기 공유 오브젝트의 선택 입력, 및 상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력이 있는 경우, 상기 화자에 대응하여, 상기 공유 컨텐츠에 대한 해당 동작을 수행하는 것을 특징으로 하는 화상회의장치의 동작방법.
The method of claim 1,
Displaying a shared object related to a speaker in the captured image;
Performing a corresponding operation on the shared content,
And when there is a selection input of the shared object and a selection input of a predetermined item in the control object, corresponding operation on the shared content is performed corresponding to the speaker.
촬영 영상을 수신하는 단계;
수신되는 공유 컨텐츠를 상기 촬영 영상 내에 포함되도록 신호 처리하는 단계;
상기 공유 오브젝트를 포함하는 촬영 영상을 외부로 전송하는 단계;
상기 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 상기 촬영 영상 내에 포함되도록 신호 처리하는 단계; 및
상기 공유 컨텐츠를 포함하는 촬영 영상을 외부로 전송하는 단계;를 포함하는 것을 특징으로 하는 화상회의장치의 동작방법.
Receiving a captured image;
Signal processing the received shared content to be included in the captured image;
Transmitting a captured image including the shared object to the outside;
Signal processing such that a control object capable of controlling the shared content is included in the captured image; And
And transmitting the captured image including the shared content to the outside.
촬영부;
사용자 입력을 수신하는 사용자 입력 인터페이스부; 및
수신되는 공유 컨텐츠를 상기 촬영 영상 내에 포함되도록 신호처리하고, 상기 공유 컨텐츠를 컨트롤할 수 있는 컨트롤 오브젝트가 상기 촬영 영상 내에 포함되도록 신호 처리하며, 상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력에 기초하여, 상기 공유 컨텐츠에 대한 해당 동작을 수행하도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 화상회의장치.
A photographing unit;
A user input interface unit for receiving a user input; And
And processing the received shared content to be included in the captured image, and processing a control object capable of controlling the shared content to be included in the captured image, based on a selection input of a predetermined item in the control object. And a controller which controls to perform a corresponding operation on the shared content.
제12항에 있어서,
상기 제어부는,
상기 촬영 영상 내의 소정 오브젝트를 공유 오브젝트로 신호 처리하며,
상기 공유 컨텐츠는, 상기 공유 오브젝트의 위치에 대응하여, 상기 촬영 영상 내에 배치되는 것을 특징으로 하는 화상회의장치.
The method of claim 12,
The control unit,
Processing a predetermined object in the captured image as a shared object,
And the shared content is disposed in the captured image corresponding to the location of the shared object.
제12항에 있어서,
네트워크와 데이터를 교환하는 네트워크 인터페이스부;를 더 포함하고,
상기 제어부는,
상기 공유 오브젝트를 포함하는 촬영 영상, 및 상기 공유 컨텐츠를 포함하는 촬영 영상을 상기 네트워크로 전송하도록 제어하는 것을 특징으로 하는 화상회의장치.
The method of claim 12,
Further comprising a; network interface unit for exchanging data with the network,
The control unit,
And transmitting the captured image including the shared object and the captured image including the shared content to the network.
제12항에 있어서,
상기 컨트롤 오브젝트는, 상기 공유 컨텐츠에 대한 동작 가능 항목을 포함하며,
상기 제어부는,
상기 공유 컨텐츠의 종류 또는 데이터 크기에 따라, 상기 동작 가능 항목이 가변되는 것을 특징으로 하는 화상회의장치.
The method of claim 12,
The control object includes an operable item for the shared content,
The control unit,
And the operable item is changed according to the type or data size of the shared content.
제13항에 있어서,
상기 제어부는,
상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력 외에, 상기 공유 오브젝트의 선택 입력, 또는 상기 공유 컨텐츠의 선택 입력 중 적어도 하나에 더 기초하여, 상기 공유 컨텐츠에 대한 해당 동작을 수행하도록 제어하는 것을 특징으로 하는 화상회의장치.
The method of claim 13,
The control unit,
And controlling to perform a corresponding operation on the shared content based on at least one of a selection input of the shared object or a selection input of the shared content, in addition to a selection input of a predetermined item in the control object. Conference unit.
제12항에 있어서,
상기 제어부는,
상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력, 및 상기 공유 컨텐츠의 선택 입력에 기초하여, 상기 공유 컨텐츠에 대한 해당 동작을 수행하도록 제어하는 것을 특징으로 하는 화상회의장치.
The method of claim 12,
The control unit,
And performing a corresponding operation on the shared content based on a selection input of a predetermined item in the control object and a selection input of the shared content.
제12항에 있어서,
디스플레이;를 더 포함하고,
상기 제어부는,
상기 공유 컨텐츠를 포함하는 촬영 영상을 표시하도록 제어하며, 상기 컨트롤 오브젝트를 포함하는 촬영 영상을 표시하도록 제어하는 것을 특징으로 하는 화상회의장치.
The method of claim 12,
The display further includes;
The control unit,
And control to display a captured image including the shared content, and display the captured image including the control object.
제12항에 있어서,
디스플레이;를 더 포함하고,
상기 제어부는,
상기 촬영 영상 내의 소정 오브젝트와 관련한 공유 오브젝트를 표시하도록 제어하며,
상기 공유 컨텐츠는, 상기 공유 오브젝트의 위치에 대응하여, 상기 촬영 영상 내에 배치되는 것을 특징으로 하는 화상회의장치.
The method of claim 12,
The display further includes;
The control unit,
Controls to display a shared object related to a predetermined object in the captured image,
And the shared content is disposed in the captured image corresponding to the location of the shared object.
제12항에 있어서,
디스플레이;를 더 포함하고,
상기 제어부는,
상기 촬영 영상 내의 화자와 관련한 공유 오브젝트를 표시하도록 제어하며,
상기 공유 오브젝트의 선택 입력, 및 상기 컨트롤 오브젝트 내의 소정 항목의 선택 입력이 있는 경우, 상기 화자에 대응하여, 상기 공유 컨텐츠에 대한 해당 동작을 수행하도록 제어하는 것을 특징으로 하는 화상회의장치.

The method of claim 12,
The display further includes;
The control unit,
Controls to display a shared object related to the speaker in the captured image,
And when there is a selection input of the shared object and a selection input of a predetermined item in the control object, controlling to perform a corresponding operation on the shared content in response to the speaker.

KR1020120046989A 2012-05-03 2012-05-03 Video confenrece apparatus, and method for operating the same KR101920641B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120046989A KR101920641B1 (en) 2012-05-03 2012-05-03 Video confenrece apparatus, and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120046989A KR101920641B1 (en) 2012-05-03 2012-05-03 Video confenrece apparatus, and method for operating the same

Publications (2)

Publication Number Publication Date
KR20130123679A true KR20130123679A (en) 2013-11-13
KR101920641B1 KR101920641B1 (en) 2019-02-13

Family

ID=49852851

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120046989A KR101920641B1 (en) 2012-05-03 2012-05-03 Video confenrece apparatus, and method for operating the same

Country Status (1)

Country Link
KR (1) KR101920641B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022098168A1 (en) * 2020-11-06 2022-05-12 삼성전자 주식회사 Electronic device for providing video conference and method for providing video conference

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022098168A1 (en) * 2020-11-06 2022-05-12 삼성전자 주식회사 Electronic device for providing video conference and method for providing video conference

Also Published As

Publication number Publication date
KR101920641B1 (en) 2019-02-13

Similar Documents

Publication Publication Date Title
US10606542B2 (en) Image display apparatus
US8965314B2 (en) Image display device and method for operating the same performing near field communication with a mobile terminal
US10474322B2 (en) Image display apparatus
US11449297B2 (en) Image display apparatus
KR102350933B1 (en) Image display apparatus
US11397513B2 (en) Content transmission device and mobile terminal for performing transmission of content
KR20180027132A (en) Display device
US10219045B2 (en) Server, image providing apparatus, and image providing system comprising same
KR20130021712A (en) Image display apparatus, and method for operating the same
KR102190007B1 (en) Apparatus for providing image, server, and system including the same
KR101920641B1 (en) Video confenrece apparatus, and method for operating the same
KR101920640B1 (en) Video conference apparatus and method for operating the same
KR101746808B1 (en) Image display apparatus, media apparatus and method for operating the same
KR20190088532A (en) IMAGE DISPLAY DEVICE AND IMAGE DISPLAY SYSTEM WITH THE SAME
KR20170112099A (en) Image display apparatus
KR101980546B1 (en) Operating Method for Image Display apparatus
KR101878806B1 (en) Image display apparatus, and method for operating the same
KR20150145243A (en) Image display apparatus and method for operating the same
KR101945811B1 (en) Image display apparatus, and method for operating the same
KR20180107952A (en) Image display apparatus
KR101825669B1 (en) Image display apparatus, and method for operating the same
KR20130019259A (en) Method for operating an image display device and a mobile terminal
KR20190041090A (en) Image display apparatus
KR20140047427A (en) Image display apparatus and method for operating the same
KR20140089794A (en) Image display apparatus and method for operating the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant