KR101870764B1 - Display apparatus using image conversion mechanism and method of operation thereof - Google Patents

Display apparatus using image conversion mechanism and method of operation thereof Download PDF

Info

Publication number
KR101870764B1
KR101870764B1 KR1020120038686A KR20120038686A KR101870764B1 KR 101870764 B1 KR101870764 B1 KR 101870764B1 KR 1020120038686 A KR1020120038686 A KR 1020120038686A KR 20120038686 A KR20120038686 A KR 20120038686A KR 101870764 B1 KR101870764 B1 KR 101870764B1
Authority
KR
South Korea
Prior art keywords
depth
image
pixel
current input
module
Prior art date
Application number
KR1020120038686A
Other languages
Korean (ko)
Other versions
KR20120138628A (en
Inventor
김윤경
치 쥬우
김영택
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/160,409 external-priority patent/US8432392B2/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP12168756.0A priority Critical patent/EP2536160B1/en
Priority to JP2012133797A priority patent/JP2013003586A/en
Priority to CN2012101996684A priority patent/CN102833571A/en
Publication of KR20120138628A publication Critical patent/KR20120138628A/en
Application granted granted Critical
Publication of KR101870764B1 publication Critical patent/KR101870764B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

디스플레이 방법을 개시한다. 본 발명의 일 실시 예에 따른 디스플레이 방법은 현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 단계; 현재 입력 픽셀의 특성상 차이점에 기초하여 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계; 깊이 후보들의 가중치 평균을 근거로 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 단계; 및 장치에 표시하기 위해서, 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 지각 깊이를 갖는 처리된 영상을 생성하는 단계;을 포함한다.Display method. A display method according to an exemplary embodiment of the present invention includes: receiving a current input image having a current input pixel; Identifying an input object having an input object pixel based on a difference in characteristics of a current input pixel; Calculating an object pixel depth for the input object pixel from the image depth map of the current input image based on the weighted average of the depth candidates; And generating a processed image having a perceptual depth from a current input image having an image depth map and object pixel depth, for display on the device.

Figure R1020120038686
Figure R1020120038686

Description

영상 변환 메커니즘을 활용한 디스플레이 장치 및 그 동작 방법{DISPLAY APPARATUS USING IMAGE CONVERSION MECHANISM AND METHOD OF OPERATION THEREOF}TECHNICAL FIELD [0001] The present invention relates to a display device and a method of operating the same,

본 발명은 디스플레이 장치에 관한 것으로 더욱 상세하게는 이미지 변환 장치에 관한 것이다. The present invention relates to a display device, and more particularly to an image conversion device.

현대의 소비자 가전제품과 산업 가전제품 특히 그래픽 디스플레이 장치, TV, 프로젝터, 핸드폰, 휴대용 디지털 제품, 조합 장치들은 좀더 풍요로운 현대 생활을 영위하는데 일조하고 있다. 현재 상용되는 기술에 관한 연구 개발은 다양한 방향에서 이루어지고 있다.Contemporary consumer electronics and industrial appliances, especially graphic display devices, TVs, projectors, mobile phones, portable digital products and combination devices are helping to create a richer modern life. R & D on currently commercialized technologies is taking place in various directions.

특히, 사용자들이 3차원 디스플레이 장치의 발전으로 더 많은 권한을 갖게 되면서 과거 또는 새로운 패러다임들은 이러한 새로운 3차원 디스플레이 공간을 활용하기 시작하고 있다. 이러한 새로운 디스플레이 장치 기회를 활용하기 위한 다양한 기술적 방법들이 존재한다. 그 중 한 가지 기존의 방식은 비디오 프로젝터, TV, 모니터, 게임 시스템 및 개인휴대 정보 단말기(PDA)와 같은 소비자용 전자기기, 산업용 전자기기, 휴대용 전자 기기들 상에 3차원 영상을 구현하는 것이다.In particular, as users become more privileged with the development of 3D display devices, past or new paradigms are starting to take advantage of these new 3D display spaces. There are a variety of technical methods to take advantage of these new display device opportunities. One such conventional approach is to implement 3D imaging on consumer electronics, industrial electronics, and portable electronic devices such as video projectors, TVs, monitors, gaming systems and personal digital assistants (PDAs).

서비스 기반 3차원 디스플레이는 사용자가 스스로 정보를 만들고 이전, 저장, 소비할 수 있게 하여 현실 시계에서 사용자가 스스로 정보를 만들고 이전, 저장, 소비할 수 있게 해준다. 그러한 서비스 기반 3차원 디스플레이의 사용 방식 중 하나는 디스플레이 상에 3차원 영상을 효율적으로 구현하는 것이다.Service-based three-dimensional displays enable users to create, transfer, store, and consume information on their own, allowing users to create, transfer, store, and consume information on their own. One such use of such a service-based three-dimensional display is to efficiently implement a three-dimensional image on a display.

3차원 디스플레이 장치은 프로젝터, TV, 노트북, 휴대용 기기 및 다른 휴대용 상품들 내에 구성되어있다. 오늘날 이러한 시스템들은 도표, 지도 혹은 비디오와 같은 이용가능한 관련 정보를 표시하여 소비자들을 돕고 있다. 3차원 영상 디스플레이는 매우 유용한 관련 정보를 제공한다.The three-dimensional display device is configured in a projector, a TV, a notebook, a portable device, and other portable products. Today, these systems are helping consumers by displaying relevant relevant information such as charts, maps or videos. 3D image display provides very useful related information.

그러나 3차원 형식으로 정보를 디스플레이하는 것은 소비자들에게 큰 우려를 주고 있다. 현실세계와 동떨어진 3차원 영상을 구현하는 것은 3차원 디스플레이 장치 사용의 이점을 떨어뜨린다. 예컨대, 입체감의 차이를 갖는 영상 속 오브젝트는 사용자를 불편하게 할 수 있다. However, displaying information in a three-dimensional format is of great concern to consumers. Implementing a three-dimensional image that is remote from the real world diminishes the advantages of using a three-dimensional display device. For example, an in-video object having a difference in three-dimensional sense may make the user uncomfortable.

그러므로 3차원 디스플레이 장치는 여전히 3차원 영상을 구현하기 위한 영상 변환 메커니즘을 포함할 필요가 있다. 시장 경쟁이 전례 없이 심화되고, 소비자의 기대심리는 높아지며, 시장 내에서 상품의 뚜렷한 차별화의 기회가 줄어들고 있다는 점에서 이러한 문제의 해답을 찾아야 하는 문제가 점차 중요해지고 있다. 게다가, 비용을 절감하고, 효율성과 성능을 제고하며, 경쟁적 압박을 대응할 필요성이 이런 문제점들의 해결법을 찾는 것에 대한 중요한 필요성을 훨씬 더 시급하게 한다.Therefore, the three-dimensional display device still needs to include an image conversion mechanism for realizing a three-dimensional image. It is becoming increasingly important to find solutions to these problems as market competition intensifies unprecedentedly, consumer expectations increase, and opportunities for distinctive product differentiation within the market are declining. In addition, the need to reduce costs, increase efficiency and performance, and respond to competitive pressures make the critical need for finding solutions to these problems even more urgent.

이러한 문제들의 해결책은 오랫동안 연구되어 왔으나 종래의 개발은 어떤 해결책도 교시 또는 암시하지 못하고 있으며, 따라서, 이 문제들의 해결책은 이 분야 통상의 지식을 가진 자들에게 요원하게 남아있다.The solution to these problems has been studied for a long time, but conventional development does not teach or suggest any solution, and therefore the solution to these problems remains a challenge to those of ordinary skill in the art.

본 발명에 따른 디스플레이 장치의 동작 방법은 현재 입력 픽셀들을 포함하는 현재 입력 영상을 수신하는 단계; 현재 입력 픽셀들의 특징상 차이점에 근거하여 입력 오브젝트 픽셀들을 포함하는 입력 오브젝트를 식별하는 단계; 깊이 후보들의 가중치가 부여된 평균을 기반으로 현재 입력 영상의 영상 깊이 맵에서 입력 오브젝트 픽셀들의 오브젝트 픽셀 깊이를 계산하는 단계; 및 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 장치에 디스플레이를 위한 인식된 깊이를 갖는 처리된 영상을 생성하는 단계;를 포함한다.A method of operating a display device according to the present invention includes: receiving a current input image including current input pixels; Identifying an input object comprising input object pixels based on a difference in the characteristics of the current input pixels; Calculating an object pixel depth of the input object pixels in the image depth map of the current input image based on the weighted average of the depth candidates; And generating a processed image having a recognized depth for display on the device from a current input image having an image depth map and an object pixel depth.

본 발명에 따른 디스플레이 장치는 현재 입력 픽셀들을 포함하는 현재 입력 영상을 수신하는 통신부와; 통신부와 서로 연결되고, 현재 입력 픽셀들의 특징상의 차이점에 근거하여, 입력 오브젝트 픽셀들을 포함하는 입력 오브젝트를 식별하는 오브젝트 검출 모듈과; 상기 오브젝트 검출 모듈과 연결되고 깊이 후보들의 가중치가 부여된 평균을 기반으로 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀들의 오브젝트 픽셀 깊이를 계산하는 오브젝트 깊이 모듈과; 상기 오브젝트 깊이 모듈과 연결되고, 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 인식된 깊이를 갖는 처리된 영상을 생성하는 영상 변환 모듈;을 포함한다. A display device according to the present invention includes: a communication unit for receiving a current input image including current input pixels; An object detection module, connected to the communication unit, for identifying an input object including input object pixels, based on differences in characteristics of the current input pixels; An object depth module coupled to the object detection module and calculating an object pixel depth of input object pixels from an image depth map of a current input image based on a weighted average of depth candidates; And an image transformation module, coupled to the object depth module, for generating a processed image having a depth recognized from a current input image having an image depth map and an object pixel depth.

본 발명은 상기 설명에 추가되거나 대체되는 다른 단계나 요소를 갖는 어떠한 실시 예도 포함한다. 그러한 단계나 실시 예는 기술 분야의 통상의 지식을 갖는 자가 첨부된 도면을 참조하여 후술하는 상세한 설명을 읽는 경우 명백해질 것이다. The present invention includes any embodiment having other steps or elements added or substituted for the above description. Such steps or embodiments will become apparent to those of ordinary skill in the art upon reading the following detailed description with reference to the accompanying drawings.

도 1은 본 발명 실시 예에 따른 영상 변환 매커니즘을 포함하는 디스플레이 장치,
도 2는 도 1에서 설명한 제 1 디바이스 의 디스플레이 인터페이스의 예,
도 3은 디스플레이 장치의 블록 다이어그램의 예,
도 4는 디스플레이 장치의 제어 흐름도,
도 5는 오브젝트 검출 모듈의 도면,
도 6은 오브젝트 조정 모듈의 도면,
도 7은 현재 입력 영상의 영상 깊이 맵의 일부 예,
도 8은 오브젝트 깊이 모듈의 도면,
도 9는 로컬 깊이 모듈의 도면,
도 10은 현재 입력 영상의 예,
도 11은 행 합 모듈 (row sum module)의 예,
도 12는 이진 변환 모듈(binary conversion module)의 예,
도 13은 최대 필터 모듈 (maximum filter module)의 예,
도 14는 행 평균 깊이 모듈 (row average depth module)의 예,
도 15는 행 깊이 집단 모듈 (row depth group module)의 예,
도 16은 그룹 최대 모듈 (group maximum module)의 예,
도 17은 균등 깊이 모듈 (uniform depth module)의 예, 그리고
도 18은 본 발명의 추가적인 예시에 따른 디스플레이 장치의 작동 방법의 흐름도,
1 is a block diagram of a display device including an image conversion mechanism according to an embodiment of the present invention,
Fig. 2 shows an example of the display interface of the first device described in Fig. 1,
3 shows an example of a block diagram of a display device,
4 is a control flowchart of the display device,
5 is a diagram of an object detection module,
6 is a diagram of an object adjustment module,
7 shows a part of the image depth map of the current input image,
Figure 8 is a drawing of an object depth module,
Figure 9 is a drawing of a local depth module,
10 shows an example of a current input image,
11 shows an example of a row sum module,
12 shows an example of a binary conversion module,
Figure 13 shows an example of a maximum filter module,
14 shows an example of a row average depth module,
15 shows an example of a row depth group module,
Figure 16 is an example of a group maximum module,
Figure 17 shows an example of a uniform depth module, and
18 is a flowchart of a method of operating a display device according to a further example of the present invention,

아래의 실시 예는 통상의 지식을 가진 자가 본 발명을 하고 사용할 수 있도록 상세한 설명을 담고 있다. 현재의 개시에 근거하여 다른 실시 예도 자명한 것으로 이해되어야 하며, 시스템, 방법, 기계적 변화는 본 발명의 범위를 벗어나지 않는 것으로 이해되어야 한다. The following examples are provided to enable those of ordinary skill in the art to make and use the invention. It is to be understood that other embodiments will be apparent on the basis of the present disclosure, and that the system, method and mechanical changes are not to be regarded as a departure from the scope of the present invention.

아래의 설명에서 다수의 구체적인 세부설명은 본 발명에 대한 완전한 이해를 위해 제공된다. 그러나 본 발명은 이러한 자세한 설명 없이도 실시될 수 있음이 분명하다. 본 발명이 불명확해지는 것을 방지하기 위해 일부 널리 알려진 회로, 시스템 구성, 처리 과정은 상세히 개시되지 않는다.In the following description, numerous specific details are set forth in order to provide a thorough understanding of the present invention. It should be apparent, however, that the present invention may be practiced without these details. In order to prevent the present invention from becoming unclear, some well-known circuits, system configurations, and processes are not disclosed in detail.

시스템의 실시 예를 나타내는 도면들의 반은 도표로 구성되어 있으며 일정 비율로 나타나 있지 않고 특히, 차원(dimension)들의 일부는 표현의 명료성을 위한 것이며 도면에서 과장되어 표현되어 있다. 유사하게, 설명을 쉽게 이해하기 위한 도면들은 일반적으로 비슷한 방향으로 그려지지만, 도면의 설명은 대부분 임의적이다. 일반적으로 발명은 어떠한 방향에서나 동작할 수 있다. 본 발명의 실시 예는 설명의 편의를 위해 제1실시 예, 제2실시 예와 같이 설명되어지는데, 특별한 의미를 갖거나 본 발명을 한정하기 위한 것은 아니다. Half of the drawings illustrating embodiments of the system are organized in charts and are not drawn to scale, in particular some of the dimensions are for clarity of presentation and are exaggerated in the drawings. Similarly, although the drawings for easy understanding are drawn in a generally similar direction, the description of the drawings is mostly arbitrary. Generally, an invention can operate in any direction. Embodiments of the present invention will be described with reference to the first and second embodiments for the sake of convenience, but they are not intended to limit the present invention.

통상의 지식을 습득한 자는 영상 정보가 디스플레이 되는 형식이 본 발명의 일부 실시 예들에서 큰 중요성을 갖지 않음을 잘 이해할 것이다. 예컨대, 일부 실시 예에서 영상 정보는 X와 Y가 영상 내 픽셀의 위치를 정의하는 두 개의 좌표 역할을 하는 (X,Y) 형식으로 나타나 있다. Those of ordinary skill in the art will appreciate that the manner in which image information is displayed is not of significant importance in some embodiments of the present invention. For example, in some embodiments, the image information is in the (X, Y) format, where X and Y serve as two coordinates defining the location of the pixels in the image.

다른 대안적인 실시 예에서, 3차원 영상 영상 정보는 픽셀의 색상에 관한 관련 정보를 담는 (X, Y, Z) 형식으로 나타나 있다. 본 발명의 추가적인 실시 예에서, 3차원 영상 정보는 또한 광도 또는 휘도에 관한 내용을 포함하고 있다.In another alternative embodiment, the three dimensional image information is represented in the (X, Y, Z) format containing relevant information about the color of the pixel. In a further embodiment of the present invention, the three-dimensional image information also includes content regarding brightness or brightness.

이하에서 "영상"이란 이차원 영상, 삼차원 영상, 비디오 프레임, 컴퓨터 파일 표현, 카메라에서 입력 받은 영상, 비디오 프레임 혹은 이들의 조합을 포함할 수 있다. 예컨대, 상기 영상은 기계에서 판독 가능한 디지털 파일, 물리적 사진, 디지털 사진, 활동 사진 프레임 (motion picture frame), 비디오 프레임, x-ray 영상, 스캔 영상 혹은 그 조합일 수 있다. 또한 예컨대, 상기 하드웨어는 회로, 프로세서, 컴퓨터, 집적회로 (integrated circuit), 집적회로코어 (integrated circuit cores), 압력 센서, 관성 센서, 미세전자기계시스템 (micro-electro mechanical system: MEMS), 패시브 디바이스 (passive device), 혹은 이들의 조합일 수 있다.Hereinafter, the term " image " may include a two-dimensional image, a three-dimensional image, a video frame, a computer file representation, an image received from a camera, a video frame, or a combination thereof. For example, the image may be a machine-readable digital file, a physical photograph, a digital photograph, an active picture frame, a video frame, an x-ray image, a scan image, or a combination thereof. For example, the hardware may also be implemented as a circuit, a processor, a computer, an integrated circuit, an integrated circuit cores, a pressure sensor, an inertial sensor, a micro-electro mechanical system (MEMS) a passive device, or a combination thereof.

이하에서 "모듈"이란 소프트웨어, 하드웨어 혹은 이들의 조합을 포함할 수 있다. 예컨대, 소프트웨어는 기계 코드, 펌웨어(firmware), 임베디드 코드(embedded code), 어플리케이션 소프트웨어를 포함할 수 있다. 또한 하드웨어는 회로, 프로세서, 컴퓨터, 집적회로, 집적회로 코어, 압력 센서, 관성 센서, 미세전자기계시스템, 패시브 디바이스 혹은 이들의 조합일 수 있다.In the following, " module " may include software, hardware, or a combination thereof. For example, the software may include machine code, firmware, embedded code, application software. The hardware may also be a circuit, a processor, a computer, an integrated circuit, an integrated circuit core, a pressure sensor, an inertial sensor, a microelectromechanical system, a passive device, or a combination thereof.

도 1은 본 발명의 실시 예에 따른 영상 변환 매커니즘을 가진 디스플레이 시스템(100)를 보여준다. 디스플레이 시스템(100)는 클라이언트 또는 서버인 제 2 디바이스 106에 연결된 클라이언트 또는 서버인 제 1 디바이스 102 를 포함한다. 제 1 디바이스 102는 무선 혹은 유선의 네트워크 경로(104)를 통해 제 2 디바이스 106과 연결된다.Figure 1 shows a display system 100 with an image conversion mechanism according to an embodiment of the present invention. The display system 100 includes a first device 102 that is a client or server connected to a second device 106 that is a client or server. The first device 102 is connected to the second device 106 via a wireless or wired network path 104.

예컨대, 제 1 디바이스 102 는 휴대폰, 개인휴대단말기(PDA), 노트북 컴퓨터, 액정표시장치 (liquid crystal display: LCD) 장치 또는 기타 다기능 디스플레이 혹은 엔터테인먼트 장치와 같은 다양한 디스플레이 장치 중 어느 것일 수 있다. 제 1 디바이스 102는 제 2 디바이스 106과 통신하기 위해 통신 경로 104와 직접 혹은 간접적으로 연결될 수 있거나 독립형 디바이스로 구현될 수 있다.For example, the first device 102 may be any of a variety of display devices such as a cell phone, a personal digital assistant (PDA), a notebook computer, a liquid crystal display (LCD) device or other multifunctional display or entertainment device. The first device 102 may be directly or indirectly coupled to the communication path 104 to communicate with the second device 106, or may be implemented as a stand-alone device.

설명을 위해, 디스플레이 시스템 100이 디스플레이 장치인 제 1 디바이스 102를 포함하는 것으로 상정했으나, 제 1 디바이스 102는 다른 종류의 장치가 될 수 있다. 예컨대, 제 1 디바이스 102는 영상 출력 장치이거나 혹은 멀티 미디어 프리젠테이션 (multi-media presentation)일 수 있다. 멀티 미디어 프리젠테이션은 음향, 스트리밍 영상 또는 비디오 피드(video feed)의 시퀀스 혹은 이들의 조합을 포함할 수 있다. 예컨대, 제 1 디바이스 102는 고해상도 TV(HDTV), 3차원 TV, 컴퓨터 모니터, 개인휴대단말기, 휴대폰, 멀티미디어 세트 (multi-media set)일 수 있다.For the sake of explanation, it is assumed that the display system 100 includes the first device 102 which is a display device, but the first device 102 may be another kind of device. For example, the first device 102 may be a video output device or a multi-media presentation. The multimedia presentation may comprise a sequence of sounds, a streaming image or a video feed, or a combination thereof. For example, the first device 102 may be a high-definition TV (HDTV), a 3D TV, a computer monitor, a personal digital assistant, a cellular phone, or a multi-media set.

제 2 디바이스 106은 다양한 종류의 중앙 집중형 혹은 분산형 컴퓨팅 장치이거나 비디오 전송 장치들 중 하나일 수 있다. 예컨대, 제 2 디바이스 106은 멀티미디어 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 비디오 게임기, 그리드 컴퓨팅 자원(grid-computing resources), 가상화 컴퓨터 자원 (virtualized computer resource), 클라우드 컴퓨팅 자원, 라우터(routers), P2P 분산 컴퓨팅 장치 (peer-to-peer distributed computing devices), 미디어 재생 장치, 디지털 비디오 디스크(DVD) 플레이어, 3차원 DVD 플레이어, 카메라 혹은 비디오 카메라와 같은 기록 장치 또는 이들의 조합일 수 있다. 또 다른 예를 들면, 제 2 디바이스 106은 방송 혹은 라이브 스트림 신호를 수신하기 위한 신호 수신기일 TV 수신기, 케이블 박스, 위성방송 수신기이거나 혹은 TiVo(TM)이나 슬링박스(TM)와 같은 웹 지원 장치일 수 있다.The second device 106 may be any type of centralized or distributed computing device or one of video transmission devices. For example, the second device 106 may be a multimedia computer, a notebook computer, a desktop computer, a video game machine, grid-computing resources, virtualized computer resources, cloud computing resources, routers, A recording device such as a peer-to-peer distributed computing devices, a media player, a digital video disk (DVD) player, a 3D DVD player, a camera or a video camera, or a combination thereof. As another example, the second device 106 may be a TV receiver, a cable box, a satellite broadcast receiver, or a Web-enabled device such as a TiVo (TM) or Slingbox (TM) .

제 2 디바이스 106은 같은 공간에 집중되거나, 다른 공간에 분산되거나, 전자통신 네트워크 내에 설치되어 서로 다른 지리적 공간에 분산되어 위치할 수 있다. 제 2 디바이스 106은 제 1 디바이스 102와 통신하기 위해, 통신 경로 104와 연결되기 위한 수단을 가질 수 있다.The second devices 106 may be located in the same space, distributed in another space, or located in an electronic communication network and distributed in different geographical areas. The second device 106 may have means for communicating with the communication path 104 to communicate with the first device 102.

설명을 위하여, 디스플레이 시스템 100가 컴퓨팅 장치인 제 2 디바이스 106을 포함하는 것으로 상정했으나 제 2 디바이스 106은 다른 종류의 장치가 될 수 있다. 또한 설명을 위해, 디스플레이 시스템 100에서 제 2 디바이스 106과 제 1 디바이스 102는 통신 경로 104의 끝부분에 그려져 있지만, 디스플레이 시스템 100은 제 1 디바이스 102, 제 2 디바이스 106 그리고 통신 경로 104 사이에 다른 구획을 가질 수 있다. 예컨대, 제 1 디바이스 102, 제 2 디바이스 106 혹은 그 조합은 통신 경로 104의 일부로서 역할을 담당할 수 있다.For purposes of discussion, it is assumed that the display system 100 includes a second device 106 that is a computing device, but the second device 106 may be another type of device. Also for purposes of explanation, in the display system 100, the second device 106 and the first device 102 are depicted at the end of the communication path 104, but the display system 100 is configured to communicate between the first device 102, the second device 106, Lt; / RTI > For example, the first device 102, the second device 106, or a combination thereof may serve as part of the communication path 104.

통신 경로 104는 다양한 네트워크일 수 있다. 예컨대, 통신 경로 104는 무선 통신, 유선 통신, 광학(optical) 통신, 초음속(ultrasonic)통신 혹은 그 조합일 수 있다. 위성 통신, 휴대 통신, 블루투스, 국제적외선통신데이터협회 기준 (Infrared Data Association standard: IrDA), 와이파이 (wireless fidelity: WiFi) 및 와이맥스(worldwide interoperability for microwave access: WiMAX)는 통신 경로 104에 포함될 수 있는 무선 통신의 예들이다. 이서넷(Ethernet), 디지털 가입자 회선(digital subscriber line: DSL), 광 가입자 망(fiber to the home: FTTH) 및 기존 전화 서비스(plain old telephone service: POTS)는 통신 경로 104에 포함될 수 있는 무선 통신의 예들이다.The communication path 104 may be a variety of networks. For example, communication path 104 may be wireless, wired, optical, ultrasonic, or a combination thereof. (WiMAX), satellite communication, mobile communication, Bluetooth, the International Infrared Data Association standard (IrDA), wireless fidelity (WiFi) and WiMAX Examples of communication. The Ethernet, digital subscriber line (DSL), fiber to the home (FTTH) and plain old telephone service (POTS) .

더 나아가, 통신 경로 104는 다수의 네트워크 토폴로지(topology)와 거리(distance)에 걸쳐 있을 수 있다. 예컨대, 통신 경로 104는 직렬 접속(direct connection), 개인 통신망(personal area network: PAN), 근거리 통신망(local area network: LAN), 도시지역통신망(metropolitan area network: MAN), 원거리통신망(wide area network: WAN) 또는 이들의 조합을 포함할 수 있다. Further, the communication path 104 may span multiple network topologies and distances. For example, the communication path 104 may be a direct connection, a personal area network (PAN), a local area network (LAN), a metropolitan area network (MAN), a wide area network : WAN) or a combination thereof.

도 2는 도 1의 제 1 디바이스 102의 디스플레이 인터페이스 210의 예를 도시한 것이다. 디스플레이 인터페이스 210은 영상 출력 또는 멀티 미디어 프리젠테이션(multi-media presentation)을 위한 물리적 장치이다. 예컨대, 디스플레이 인터페이스는 액정표시장치(liquid crystal display: LCD) 패널을 포함하는 스크린, 플라즈마 스크린 혹은 프로젝션 스크린일 수 있다. FIG. 2 illustrates an example of a display interface 210 of the first device 102 of FIG. Display interface 210 is a physical device for video output or multi-media presentation. For example, the display interface may be a screen including a liquid crystal display (LCD) panel, a plasma screen, or a projection screen.

디스플레이 인터페이스 210은 처리된 영상 212을 표시한다. 처리된 영상 212는 디스플레이 인터페이스 210에 표시될 때 지각 깊이 211을 갖도록 처리된 많은 수의 픽셀을 포함하는 영상으로 정의한다. The display interface 210 displays the processed image 212. The processed image 212 is defined as an image that includes a large number of pixels processed to have a perception depth 211 when displayed on the display interface 210.

지각 깊이란 디스플레이 인터페이스 210을 멀리서 볼 때, 오브젝트가 다른 오브젝트나 영상 속 배경에 상대적으로 가깝게 혹은 멀리 나타나는 것으로 정의한다. 예컨대, 영상의 왼쪽 아래 코너를 원점으로 하는 3차원 직교 좌표에서 X축 213은 폭을 측정하기 위한 기준이 되고, Y축 215는 깊이를 측정하기 위한 기준이 되며, Z축 217은 높이를 측정하기 위한 기준이다. Y좌표 값이 큰 오브젝트는 Y 좌표 값이 작은 오브젝트보다 지각 깊이 211의 값이 더 클 수 있다. 지각 깊이 211의 값이 더 큰 오브젝트는 지각 깊이 211의 값이 작은 오브젝트보다 더 가깝게 보이게 된다.The perception depth is defined as the object appears relatively close to or farther from the background in another object or image when viewed from a distance from the display interface 210. For example, in the three-dimensional Cartesian coordinate system with the lower left corner of the image as the origin, the X-axis 213 is a reference for measuring the width, the Y-axis 215 is a reference for measuring the depth, and the Z- . An object having a large Y coordinate value may have a larger value of the perception depth 211 than an object having a small Y coordinate value. An object with a larger value of the crust depth 211 will appear closer to an object with a smaller crust depth 211 value.

또 다른 예에서 사용자는 처리된 영상 212 속 오브젝트가 디스플레이 인터페이스 210의 평면 바깥이나 그 앞에 나타나는 것에 주목하여 지각 깊이 211를 확인하거나 감지할 수 있다. 이와 유사하게, 사용자는 처리된 영상 안의 오브젝트가 디스플레이 인터페이스 210의 평면의 내부나 뒤쪽으로 더 깊은 곳에서 나타나는 것을 주목하여 깊이를 지각할 수 있다. 예컨대, 처리 영상 212은 거리를 표현하는 방식으로서 픽셀을 흐릿하게 할 수 있다. 밝기와 색의 강도(intensity) 역시 지각 깊이 211를 제공할 정도로 감소된다. In another example, the user can identify or sense the perceived depth 211 by noting that the processed image 212 object appears outside or on the plane of the display interface 210. Similarly, the user may perceive the depth by noting that the objects in the processed image appear deeper inside or behind the plane of the display interface 210. For example, the processed image 212 may blur pixels as a way of representing distances. The intensity of the brightness and color is also reduced to provide a perceived depth 211.

그러나 또 다른 예에서, 지각 깊이 211은 행 사이의 간격을 띄우는 것으로 표현될 수 있다. 행간이 좁은 처리 영상 212의 일부는 지각 깊이 211의 값이 더 낮은 반면 행간이 넓은 오브젝트의 지각 깊이 211는 더 높게 나타난다. 구체적인 예를 들자면, 행간이 좁은 처리 영상 212의 윗부분은 지각 깊이 211의 값이 낮고, 지각 깊이 211의 높은 값을 갖는 행간이 넓은 처리 영상 212의 아래 부분보다 멀리 떨어져 보인다.However, in yet another example, the perception depth 211 may be expressed as spacing between rows. A part of the narrow-line-processed image 212 has a lower value of the perception depth 211 and a higher perception depth 211 of the object with a large inter-line space. As a specific example, the upper portion of the processed image 212 with a narrow inter-line portion has a low value of the perception depth 211 and the inter-line portion having a high value of the perception depth 211 appears farther away from the lower portion of the processed image 212.

처리 영상 212는 처리 오브젝트 214를 포함할 수 있다. 처리 오브젝트 214는 균등한 지각 깊이 211를 갖는 오브젝트를 의미하며 이런 오브젝트는 상대적으로 고정된 자리에 위치한다. 균등한 지각 깊이 211를 갖는 오브젝트는 오브젝트의 모든 부분이 같은 값의 지각 깊이 211를 갖음을 의미한다. 상대적으로 고정된 위치를 갖는 오브젝트는 영상의 스트림이나 시퀀스에서 한 영상에서 다른 영상으로 X축 213 혹은 Z축 217 을 따라 거의 이동이 없는 오브젝트를 의미한다.Processing video 212 may include processing object 214. The processing object 214 refers to an object having an equal perception depth 211, and these objects are located at relatively fixed positions. An object with an even crust depth 211 means that all parts of the object have a crust depth 211 of the same value. An object having a relatively fixed position means an object having almost no movement along X-axis 213 or Z-axis 217 from one image to another in a stream or sequence of images.

처리 오브젝트 214는 처리 오브젝트 214에 인접하는 처리 영상 212의 일부보다 더 큰 값의 지각 깊이 211를 가질 수 있다. 예컨대, 처리 오브젝트 214는 처리 영상 212 위로 떠오르거나 그 위를 맴돌 수 있다.The processing object 214 may have a perception depth 211 greater than a portion of the processing image 212 adjacent to the processing object 214. [ For example, the processing object 214 may float above or above the processing image 212.

처리 오브젝트 214의 예는 자막, 스포츠 경기의 득점 게시판, 방송국 상징 로고와 같은 애니메이션이나 비 애니메이션으로 만든 로고, 처리 영상 212의 상대적으로 고정된 위치에서 나타날 수 있는 광고나 최신 뉴스를 위한 화면 이동 문자(scrolling text)와 같은 화면 이동 배너(scrolling banner)나 텍스트 필드(text field)를 포함할 수 있다. 또 다른 예를 들자면, 지각 깊이 211을 처리 오브젝트 214에게 공급하기 위하여 처리 오브젝트 214 영역 내부의 픽셀들을 흐릿하게 하고 유연하게 해서 질감을 만들어내고 처리 영상 212 안의 모든 처리 오브젝트 214 들이 구분되는 것을 나타낼 수 있다. Examples of processing objects 214 include animations or non-animated logos such as subtitles, scoreboards for sporting events, logo emblems for broadcast stations, animations that can appear at relatively fixed locations in processed video 212, a scrolling banner such as a scrolling text or a text field. As another example, pixels within the region 214 of the processing object 214 may be blurred and rendered flexible to provide texture and to indicate that all of the processing objects 214 in the processing image 212 are distinct to feed the processing depth 214 to the processing object 214 .

도 3에서는 디스플레이 시스템 100의 블록 다이어그램 예시가 나타나 있다. 디스플레이 시스템 100은 제 1 디바이스 102, 통신 경로 104, 제 2 디바이스 106을 포함할 수 있다. 제 1 디바이스 102는 제 1 디바이스 전송 308 내 정보를 통신 경로 104를 거쳐 제 2 디바이스 106로 보낼 수 있다. 제 2 디바이스 106은 제 2 디바이스 전송 310 내 정보를 통신 경로 104를 거쳐 제 1 디바이스 102로 보낼 수 있다.An example of a block diagram of the display system 100 is shown in FIG. Display system 100 may include a first device 102, a communication path 104, and a second device 106. The first device 102 may send information in the first device transfer 308 to the second device 106 via the communication path 104. The second device 106 may send information in the second device transmission 310 to the first device 102 via the communication path 104.

설명을 위해, 디스플레이 시스템 100은 클라이언트 디바이스(client device)인 제 1 디바이스 102를 포함하는 것으로 나타나 있지만, 디스플레이 시스템 100는 다른 종류의 제 1 디바이스 102를 가질 수 있다. 예컨대, 제 1 디바이스 102는 디스플레이 인터페이스를 포함하는 서버일 수 있다.For purposes of illustration, display system 100 is shown as including a first device 102 that is a client device, but display system 100 may have a different type of first device 102. For example, the first device 102 may be a server including a display interface.

또한 설명을 위해, 디스플레이 시스템 100은 제 2 디바이스 106를 서버로 갖는 것으로 나타나 있지만, 디스플레이 시스템 100은 다른 종류의 제 2 디바이스 106을 가질 수 있다. 예컨대, 제 2 디바이스는 클라이언트 디바이스(client device)일 수 있다.Also for purposes of explanation, the display system 100 may have a second device 106 as a server, but the display system 100 may have a second type of device 106 of another type. For example, the second device may be a client device.

본 발명 실시 예를 간편히 설명하기 위해, 제 1 디바이스 102는 클라이언트 디바이스로 설명되며 제 2 디바이스 106은 서버 디바이스로 설명될 것이다. 본 발명은 장치의 종류를 한정하지 아니한다. 이러한 설명은 본 발명의 실시 예에 불과하다.To simplify description of embodiments of the present invention, the first device 102 will be described as a client device and the second device 106 will be described as a server device. The present invention does not limit the type of apparatus. This description is only an embodiment of the present invention.

제 1 디바이스 102는 제 1 제어부 312, 제 1 저장부 314, 제 1 통신부 316, 제1 사용자 인터페이스 318을 포함할 수 있다. 제 1 제어부 312는 제 1 제어 인터페이스 322를 포함할 수 있다. 제 1 제어부 312는 디스플레이 시스템 100의 정보를 제공하기 위하여 제 1 소프트웨어 326를 실행할 수 있다.The first device 102 may include a first control unit 312, a first storage unit 314, a first communication unit 316, and a first user interface 318. The first control unit 312 may include a first control interface 322. The first control unit 312 may execute the first software 326 to provide information of the display system 100.

제 1 제어부 312는 다양한 방식으로 실행될 수 있다. 예컨대, 제 1 제어부 312는 프로세서, 주문형 반도체(application specific integrated circuit: ASIC), 내장형 프로세서, 마이크로 프로세서, 하드웨어 제어 논리 연산(control logic), 하드웨어 유한 상태 기계(finite state machine: FSM), 디지털 신호 프로세서(digital signal processor: DSP) 혹은 이들의 조합일 수 있다. 제 1 제어 인터페이스 322는 제 1 제어부 312와 제 1 디바이스 102 내 다른 기능 부들 간의 연결에 사용될 수 있다. 또한, 제 1 제어 인터페이스 322는 외부에서 제 1 디바이스 102로 전해지는 연결에도 사용될 수 있다.The first control unit 312 may be implemented in various ways. For example, the first controller 312 may be a processor, an application specific integrated circuit (ASIC), an embedded processor, a microprocessor, hardware control logic, a hardware finite state machine (FSM) a digital signal processor (DSP), or a combination thereof. The first control interface 322 may be used for connection between the first control unit 312 and other functional units in the first device 102. In addition, the first control interface 322 may also be used for connections from the outside to the first device 102.

제 1 제어 인터페이스 322는 다른 기능 부나 외부 출처(external sources)에서 정보를 수신하거나 다른 기능 부들이나 외부 수신지(external destination)로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 1 디바이스 102 외부의 출처와 수신지를 뜻한다.The first control interface 322 may receive information from other functional units or external sources or may transmit information to other functional units or external destinations. External sources and external destinations are sources and destinations external to the first device 102.

제 1 제어 인터페이스 322는 다른 방식으로 실행될 수 있으며 제 1 제어 인터페이스 322와 연결된 기능 부나 외부 부서에 따라 다른 실행 방법을 포함할 수 있다. 예컨대, 제 1 제어 인터페이스 322는 압력 센서, 관성 센서, 미세전자기계시스템(a micro-electro mechanical system: MEMS), 광학 회로(optical circuitry), 도파관(waveguides), 무선회로(wireless circuitry), 유선 회로(wireline circuitry) 혹은 이들의 조합으로 실행될 수 있다.The first control interface 322 may be implemented in other manners and may include other implementations depending on the function or external department associated with the first control interface 322. [ For example, the first control interface 322 may include a pressure sensor, an inertial sensor, a micro-electro mechanical system (MEMS), optical circuitry, waveguides, wireless circuitry, wireline circuitry, or a combination thereof.

제 1 저장부 314는 제 1 소프트웨어 326을 저장할 수 있다. 또한, 제 1 저장부 314는 수신되는 영상의 데이터, 이전에 출력된 영상의 데이터, 음향 파일 혹은 이들의 조합과 같은 관련 정보를 저장할 수 있다.The first storage unit 314 may store the first software 326. In addition, the first storage unit 314 may store related information such as data of a received image, data of previously output image, sound file, or a combination thereof.

제 1 저장부 314는 휘발성 메모리, 비 휘발성 메모리, 내부 메모리, 외부 메모리 혹은 이들의 조합일 수 있다. 예컨대, 제 1 저장부 314는 비 휘발성 RAM, 플래쉬 메모리, 디스크 기억장치(disk storage)와 같은 비 휘발성 저장장치 이거나 SPAM(static random access memory)과 같은 휘발성 저장 장치일 수 있다.The first storage unit 314 may be a volatile memory, a non-volatile memory, an internal memory, an external memory, or a combination thereof. For example, the first storage unit 314 may be a non-volatile storage device such as a non-volatile RAM, a flash memory, a disk storage, or a volatile storage device such as a static random access memory (SPAM).

제 1 저장부 314는 제 1 저장 인터페이스 324를 포함할 수 있다. 제 1 저장 인터페이스 324는 제 1 디바이스 102의 다른 기능 부들 간의 연결에 사용될 수 있다. 또한, 제 1 저장 인터페이스 324는 제 1 디바이스 102로의 외부 연결에 사용될 수 있다. The first storage unit 314 may include a first storage interface 324. The first storage interface 324 may be used for connection between different functionalities of the first device 102. The first storage interface 324 may also be used for external connections to the first device 102.

제 1 저장 인터페이스 324는 다른 기능 부들이나 외부 출처로부터 정보를 수신하거나 다른 기능 부들이나 외부 수신지로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 1 디바이스 102의 외부에 있는 출처와 수신지를 의미한다.The first storage interface 324 may receive information from other functionalities or from external sources or may transmit information to other functionalities or external destinations. External sources and external destinations refer to sources and destinations external to the first device 102.

제 1 저장 인터페이스 324는 제 1 저장부 314와 상호 작동하는 다른 기능 부나 외부 부서의 유형에 따라 다른 실행 방식을 포함할 수 있다. 제 1 저장 인터페이스 324는 제 1 제어 인터페이스 322의 실행과 유사한 기술 및 방식으로 실행될 수 있다.The first storage interface 324 may include other implementations depending on the type of external function or other function that interacts with the first storage 314. The first storage interface 324 may be implemented in a similar manner and in a manner similar to the execution of the first control interface 322.

제 1 통신부 316은 제 1 디바이스 102로 혹은 그로부터의 외부 연결을 할 수 있게 한다. 예컨대, 제 1 통신부 316은 제 1 디바이스 102가 첨부한 도 1의 제 2 디바이스 106, 주변 장치 및 컴퓨터 데스크톱과 같은 부속 장치, 그리고 통신 경로 104와 연결되는 것을 허가할 수 있다. The first communication unit 316 allows external connection to or from the first device 102. For example, the first communication unit 316 may permit the first device 102 to be connected to the second device 106 of FIG. 1 attached thereto, an attached device such as a peripheral device and a computer desktop, and a communication path 104.

또한, 제 1 통신부 316은 통신 중심부의 역할을 하면서 제 1 디바이스 102가 통신 경로 104의 일부로서 기능하고 통신 경로 104의 끝 단이나 단말 부에 한정되지 않게끔 할 수 있다. 제 1 통신부 316은 통신 경로 104와의 상호 작용을 위해 초소형전자기술(microelectronics) 혹은 안테나와 같은 능동 구성(active components)과 수동 구성(passive components)를 포함할 수 있다.Also, the first communication unit 316 serves as a communication center unit, and the first device 102 functions as a part of the communication path 104 and is not limited to the terminal end or the terminal unit of the communication path 104. The first communication unit 316 may include active and passive components, such as microelectronics or antennas, for interaction with the communication path 104.

제 1 통신부 316은 제 1 통신 인터페이스 328을 포함할 수 있다. 제 1 통신 인터페이스 328은 제 1 통신부 316과 제 1 디바이스 102 내 다른 기능 부들간 통신에 사용될 수 있다. 제 1 통신 인터페이스 328은 다른 기능 부들로부터 정보를 수신하거나 다른 기능 부들로 정보를 전송할 수 있다.The first communication unit 316 may include a first communication interface 328. The first communication interface 328 can be used for communication between the first communication unit 316 and other functional units in the first device 102. The first communication interface 328 may receive information from or send information to other functions.

제 1 통신 인터페이스 328은 제 1 통신부와 연결된 기능 부들에 따라 여러방식의 구현을 포함할 수 있다. 제 1 통신 인터페이스 328은 제 1 제어 인터페이스 322의 실행 방법과 유사한 기술 및 방식으로 구현될 수 있다.The first communication interface 328 may include various implementations depending on the functional units connected to the first communication unit. The first communication interface 328 may be implemented in a similar manner and in a manner similar to that of the first control interface 322.

제 1 사용자 인터페이스 318은 사용자(미도시)가 제 1 디바이스 102와 연결되고 상호 작용할 수 있게 한다. 제 1 사용자 인터페이스 318은 입력 장치와 출력 장치를 포함할 수 있다. 제 1 사용자 인터페이스 318의 입력 장치의 예에는 데이터와 통신 입력을 제공하기 위한 키패드, 터치패드, 소프트키(soft-key), 키보드, 마이크, 원거리 신호를 수신하기 위한 적외선 센서 혹은 이들의 조합이 포함될 수 있다.A first user interface 318 allows a user (not shown) to connect and interact with the first device 102. The first user interface 318 may include an input device and an output device. Examples of input devices of the first user interface 318 include a keypad for providing data and communication inputs, a touch pad, a soft-key, a keyboard, a microphone, an infrared sensor for receiving a long distance signal, or a combination thereof .

제 1 사용자 인터페이스 318은 제 1 디스플레이 인터페이스 330을 포함할 수 있다. 제 1 디스플레이 330은 디스플레이, 프로젝터, 비디오 스크린, 스피커 혹은 이들의 조합을 포함할 수 있다.The first user interface 318 may include a first display interface 330. The first display 330 may include a display, a projector, a video screen, a speaker, or a combination thereof.

제 1 제어부 312는 디스플레이 시스템 100이 생성한 정보를 표시하기 위해 제 1 사용자 인터페이스 318을 실행할 수 있다. 또한, 제 1 제어부 312는 디스플레이 시스템 100의 다른 기능을 위해 제 1 소프트웨어 326을 실행할 수 있다. 더 나아가, 제 1 제어부 312는 제 1 통신부 316을 통해 통신 경로 104와의 상호작용하기 위하여 제 1 소프트웨어 326을 실행할 수 있다.The first control unit 312 may execute a first user interface 318 to display information generated by the display system 100. [ In addition, the first control unit 312 may execute the first software 326 for other functions of the display system 100. Further, the first control unit 312 may execute the first software 326 to interact with the communication path 104 via the first communication unit 316. [

제 2 디바이스 106은 다양한 장치 예에서 본 발명을 제 1 디바이스 102와 함께 실행하기 위해 최적화될 수 있다. 제 2 디바이스 106은 제 1 디바이스 102와 비교하여 추가적인 혹은 더 높은 성능의 처리 능력을 제공할 수 있다. 제 2 디바이스 106은 제 2 제어부 334, 제 2 통신부 336 그리고 제 2 사용자 인터페이스 338을 포함할 수 있다.The second device 106 may be optimized for running the invention with the first device 102 in various device examples. The second device 106 may provide additional or higher performance processing capability as compared to the first device 102. [ The second device 106 may include a second control unit 334, a second communication unit 336, and a second user interface 338.

제 2 사용자 인터페이스 338은 사용자(미도시)가 제 2 디바이스 106와 연결되고 상호작용할 수 있게 한다. 제 2 사용자 인터페이스 338은 입력 장치와 출력 장치를 포함할 수 있다. 제 2 사용자 인터페이스 338의 입력 장치의 예는 데이터와 통신 입력물을 제공하기 위한 키패드, 터치패드, 소프트키, 키보드, 마이크 혹은 이들의 조합을 포함할 수 있다. 제 2 사용자 인터페이스 338의 출력 장치의 예는 제 2 디스플레이 인터페이스 340을 포함할 수 있다. 제 2 디스플레이 인터페이스 340은 디스플레이, 프로젝터, 비디오 스크린, 스피커 혹은 이들의 조합을 포함할 수 있다.A second user interface 338 allows a user (not shown) to connect and interact with the second device 106. The second user interface 338 may include an input device and an output device. Examples of the input device of the second user interface 338 may include a keypad, a touch pad, a soft key, a keyboard, a microphone, or a combination thereof for providing data and communication inputs. An example of an output device of the second user interface 338 may include a second display interface 340. The second display interface 340 may include a display, a projector, a video screen, a speaker, or a combination thereof.

제 2 제어부 334는 디스플레이 시스템 100의 제 2 디바이스 106의 정보를 제공하기 위해 제 2 소프트웨어 342를 실행할 수 있다. 제 2 소프트웨어 342는 제 1 소프트웨어와 연동되어 작동할 수 있다. 제 2 제어부 334는 제 1 제어부 312와 비교하여 추가적인 성능을 제공할 수 있다.The second control unit 334 may execute the second software 342 to provide information of the second device 106 of the display system 100. [ The second software 342 may operate in conjunction with the first software. The second controller 334 may provide additional performance as compared to the first controller 312. [

제 2 제어부 334는 정보를 표시하기 위해 제 2 사용자 인터페이스 338을 동작할 수 있다. 또한, 제 2 제어부 334는 통신 경로 104를 통해 제 1 디바이스 102와 통신하도록 제 2 통신부 336을 동작시키는 것을 포함하여, 디스플레이 시스템 100의 다른 기능들을 위해 제 2 소프트웨어 342를 실행할 수 있다. The second control unit 334 may operate the second user interface 338 to display information. The second control unit 334 may also execute the second software 342 for other functions of the display system 100, including operating the second communication unit 336 to communicate with the first device 102 via the communication path 104.

제 2 제어부 334는 다양한 방식으로 실행될 수 있다. 예컨대, 제 2 제어부 334는 프로세서, 내장형 프로세서, 마이크로프로세서, 하드웨어 제어 연산 논리, 하드웨어 유산 상태 기계(FSM), 디지털 신호 프로세서(DSP) 혹은 이들의 조합일 수 있다.The second control unit 334 may be implemented in various ways. For example, the second controller 334 may be a processor, an embedded processor, a microprocessor, a hardware control arithmetic logic, a hardware legacy state machine (FSM), a digital signal processor (DSP), or a combination thereof.

제 2 제어부 334는 제 2 제어 인터페이스 344를 포함할 수 있다. 제 2 제어 인터페이스 344는 제 2 제어부 334와 제 2 디바이스 106 내 다른 기능 부들간 통신을 위해 사용될 수 있다. 또한, 제 2 제어 인터페이스 344는 제 2 디바이스 106의 외부와 통신에 사용될 수 있다.The second control unit 334 may include a second control interface 344. The second control interface 344 may be used for communication between the second controller 334 and other functions in the second device 106. The second control interface 344 may also be used for communication with the outside of the second device 106.

제 2 제어 인터페이스 344는 다른 기능 부들이나 외부 출처로부터 정보를 수신하거나 다른 기능 부들이나 외부 수신지로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 2 디바이스 106 외부의 출처와 수신지를 뜻한다.The second control interface 344 may receive information from other functionalities or from external sources or may transmit information to other functionalities or external destinations. External sources and external destinations refer to sources and destinations external to the second device 106.

제 2 제어 인터페이스 344는 다양한 방식으로 실행될 수 있으며 제 2 제어 인터페이스 344와 연결된 다른 기능 부나 외부 부서에 따라 다른 실행 방법을 포함할 수 있다. 예컨대, 제 2 제어 인터페이스 344는 압력 센서, 관성 센서, 마이크로 전자 기계 시스템(MEMS), 광학 회로, 도파관(waveguides), 무선 회로, 유선 회로, 혹은 이들의 조합으로 실행될 수 있다.The second control interface 344 may be implemented in a variety of ways and may include other implementations depending on other functions or external departments connected to the second control interface 344. [ For example, the second control interface 344 may be implemented with a pressure sensor, an inertial sensor, a microelectromechanical system (MEMS), an optical circuit, waveguides, a wireless circuit, a wire circuit, or a combination thereof.

제 2 저장부 346은 제 2 소프트웨어 342를 저장할 수 있다. 또한, 제 2 저장부 346은 수신 영상 데이터, 이전에 출력된 영상 데이터, 음향 파일 혹은 이들의 조합과 같은 관련 정보를 저장할 수 있다. 제 2 저장부 346은 제 1 저장부 314를 보완하기 위해 추가적인 저장 공간을 제공할 정도의 크기일 수 있다. The second storage unit 346 may store the second software 342. In addition, the second storage unit 346 may store related information such as received image data, previously output image data, sound files, or a combination thereof. The second storage unit 346 may be large enough to provide additional storage space for supplementing the first storage unit 314.

설명을 위해 제 2 저장부 346는 단일 요소로 나타나 있지만, 제 2 저장부 346은 저장 요소가 분산된 형태일 수 있다. 또한, 설명을 위해, 디스플레이 시스템 100은 단일 계층 저장 시스템인 제 2 저장부 346을 포함하는 것으로 그려져 있지만, 디스플레이 시스템 100은 다른 설정방식으로 제 2 저장부 346을 가질 수 있다. 예컨대, 제 2 저장부 346은 각기 다른 레벨의 캐싱(caching), 메인 메모리, 회전 기억 장치, 혹은 오프라인 저장 장치를 포함하는 계층 메모리 체계를 형성하는 각기 다른 저장 기술로 이루어질 수 있다.Although the second storage 346 is shown as a single element for purposes of illustration, the second storage 346 may be in the form of a distributed storage element. Also, for purposes of discussion, the display system 100 is depicted as including a second storage unit 346, which is a single layer storage system, but the display system 100 may have a second storage unit 346 in a different configuration scheme. For example, the second storage unit 346 may comprise a different storage technology that forms a hierarchical memory system including different levels of caching, main memory, rotating storage, or off-line storage.

제 2 저장부 346은 휘발성 메모리, 비 휘발성 메모리, 내부 메모리, 외부 메모리 혹은 이들의 조합일 수 있다. 예컨대, 제 2 저장부 346은 비 휘발성 RAM(non-volatile random access memory: NVRAM), 플래쉬 메모리 그리고 디스크 기억 저장 장치와 같은 비 휘발성 저장 장치이거나 SRAM과 같은 휘발성 저장 장치일 수 있다.The second storage unit 346 may be a volatile memory, a non-volatile memory, an internal memory, an external memory, or a combination thereof. For example, the second storage unit 346 may be a non-volatile storage device such as a non-volatile random access memory (NVRAM), a flash memory, and a disk storage device, or a volatile storage device such as an SRAM.

제 2 저장부 346은 제 2 저장 인터페이스 348을 포함할 수 있다. 제 2 저장 인터페이스 348은 제 2 디바이스 106 내 다른 기능 부들간 통신을 위해 사용될 수 있다. 또한 제 2 저장 인터페이스 348는 제 2 디바이스 106으로의 외부 연결을 위해 사용될 수 있다.The second storage unit 346 may include a second storage interface 348. The second storage interface 348 may be used for communication between other functionalities within the second device 106. The second storage interface 348 may also be used for an external connection to the second device 106.

제 2 저장 인터페이스 348은 다른 기능 부들 혹은 외부 출처들로부터 정보를 수신하거나 다른 기능 부들 혹은 외부 수신지로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 2 디바이스 106 외부의 출처와 수신지를 뜻한다.The second storage interface 348 may receive information from other functionalities or external sources or may transmit information to other functionalities or external destinations. External sources and external destinations refer to sources and destinations external to the second device 106.

제 2 저장 인터페이스 348은 제 2 수신 저장부 346과 연결되는 다른 기능 부들이나 외부 기능부에 따라 다른 실행방법들을 포함할 수 있다. 제 2 저장 인터페이스 348은 제 2 제어 인터페이스 344의 실행방법과 유사한 기술이나 방식으로 실행될 수 있다.The second storage interface 348 may include other implementations depending on the other functions or external functions associated with the second receive store 346. The second storage interface 348 may be implemented in a similar manner or in a manner similar to that of the second control interface 344.

제 2 통신부 336은 제 2 디바이스 106로 또는 그로부터의 외부 연결을 가능하게 할 수 있다. 예컨대, 제 2 통신부 336은 제 2 디바이스 106가 통신 경로 104를 통해 제 1 디바이스 102와 통신하는 것을 허가할 수 있다.And the second communication unit 336 may enable an external connection to or from the second device 106. For example, the second communication unit 336 may allow the second device 106 to communicate with the first device 102 via the communication path 104.

또한, 제 2 통신부 336는 통신 중심부로서 기능을 하며 제 2 디바이스 106가 통신 경로 104의 일부로서 기능 할 수 있도록 하고 통신 경로 104의 끝 단이나 단말 부로 한정되지 않게끔 할 수 있다. 제 2 통신부 336은 통신 경로 104와의 상호 작용을 위해 초소형전자기술(microelectronics)이나 안테나와 같은 능동 및 수동 구성요소(active and passive components)들을 포함할 수 있다. Also, the second communication unit 336 functions as a communication center, and the second device 106 can function as a part of the communication path 104 and can be not limited to the terminal end or the terminal unit of the communication path 104. The second communication portion 336 may include active and passive components such as microelectronics or antennas for interaction with the communication path 104.

제 2 통신부 336은 제 2 통신 인터페이스 350을 포함할 수 있다. 제 2 통신 인터페이스 350은 제 2 통신부 336과 제 2 디바이스 106 내 다른 기능 부들 간 통신에 사용될 수 있다. 제 2 통신 인터페이스 350은 다른 기능 부들로부터 정보를 수신하거나 다른 기능 부들에게 정보를 전송할 수 있다.The second communication unit 336 may include a second communication interface 350. The second communication interface 350 can be used for communication between the second communication unit 336 and other functional units in the second device 106. The second communication interface 350 may receive information from other functional units or transmit information to other functional units.

제 2 통신 인터페이스 350은 제 2 통신부 336와 연결된 기능 부에 따라 다른 실행방법을 포함할 수 있다. 제 2 통신 인터페이스 350은 제 2 통신 인터페이스 344의 실행방법과 유사한 기술과 방식으로 실행될 수 있다.The second communication interface 350 may include another execution method depending on the function unit connected to the second communication unit 336. The second communication interface 350 may be implemented in a similar manner and in a manner similar to that of the second communication interface 344.

제 1 통신부 316은 통신 경로 104에 연결되어 제 1 디바이스 전송 308 으로 제 2 디바이스 106로 정보를 보낸다. 제 2 디바이스 106은 제 2 통신부 336 에서 통신 경로 104의 제 1 디바이스 전송 308으로부터 정보를 수신할 수 있다.The first communication unit 316 is connected to the communication path 104 and transmits information to the second device 106 through the first device transmission 308. The second device 106 may receive information from the first device transfer 308 of the communication path 104 at the second communication unit 336. [

제 2 통신부 336은 통신 경로 104에 연결되어 제 2 디바이스 전송 310 으로 제 1 디바이스 102로 정보를 보낸다. 제 1 디바이스 102는 제 1 통신부 316 에서 통신 경로 104의 제 2 디바이스 전송 310으로부터 정보를 수신할 수 있다. 디스플레이 시스템 100은 제 1 제어부 312, 제 2 제어부 334 혹은 이들의 조합에 의해 실행될 수 있다.The second communication unit 336 is connected to the communication path 104 and transmits information to the first device 102 through the second device transmission 310. The first device 102 may receive information from the second device transmission 310 of the communication path 104 at the first communication unit 316. [ The display system 100 may be implemented by a first control unit 312, a second control unit 334, or a combination thereof.

설명을 위해, 제 2 디바이스 106는 제 2 사용자 인터페이스 338, 제 2 저장부 346, 제 2 제어부 334 그리고 제 2 통신부를 포함하는 구획으로 나타났지만, 제 2 디바이스 106은 다른 형태의 구획을 가질 수 있다. 예컨대, 제 2 소프트웨어 342는 그 기능의 일부 혹은 전부가 제 2 제어부 334와 제 2 통신부 336에 존재할 수 있도록 다르게 구획될 수 있다. 또한, 제 2 디바이스 106은 내용의 명료성을 위해 도 3에서 설명되지 않은 다른 기능 부들을 포함할 수 있다.For purposes of illustration, the second device 106 is shown as a compartment that includes a second user interface 338, a second storage 346, a second control 334, and a second communication unit, but the second device 106 may have other types of compartments . For example, the second software 342 may be differently partitioned so that some or all of its functions may reside in the second control unit 334 and the second communication unit 336. Also, the second device 106 may include other functionalities not described in FIG. 3 for clarity of content.

제 1 디바이스 102 내 기능 부들은 다른 기능 부들과는 별개로 독립적으로 작동할 수 있다. 제 1 디바이스 102는 제 2 디바이스 106 및 통신 경로 104와는 별개로 독립적으로 작동할 수 있다. The functional units in the first device 102 can operate independently of the other functional units. The first device 102 may operate independently of the second device 106 and the communication path 104.

제 2 디바이스 106 내 기능 부들은 다른 기능 부들과는 별개로 독립적으로 작동할 수 있다. 제 2 디바이스 106은 제 1 디바이스 102 및 통신 경로 104와는 별개로 독립적으로 작동할 수 있다.The functional units in the second device 106 can operate independently of the other functional units. The second device 106 may operate independently of the first device 102 and the communication path 104.

설명을 위해, 디스플레이 시스템 100은 제 1 디바이스 102와 제 2 디바이스 102의 동작으로 설명되었다. 여기서 제 1 디바이스 102와 제 2 디바이스 106은 디스플레이 시스템 100의 모든 모듈과 기능을 작동시킬 수 있는 것으로 이해될 수 있다.For illustrative purposes, the display system 100 has been described in terms of the operation of the first device 102 and the second device 102. It is understood that the first device 102 and the second device 106 can operate all the modules and functions of the display system 100.

도 4는 디스플레이 시스템 100의 제어 흐름을 나타내고 있다. 디스플레이 시스템 100은 영상 시퀀스 402를 포함할 수 있다. 영상 시퀀스 402는 디바이스에 표시될 시리즈의 영상이다. 예컨대, 영상 시퀀스 402는 제 1 기간(first time period)에 표시될 제 1 영상, 제 2 기간(second time period)에 표시될 제 2 영상, 제 3 기간(third time period)에 표시될 제 3 영상.. 등을 포함할 수 있다. 제 1 기간, 제 2 기간, 제 3 기간은 다른 시간 혹은 다른 타임 슬롯(time slot)으로 정의되며 서로 다른 기간이다. 영상 시퀀스 402는 제 1 디바이스 102 상에 표시되기 위해 처리될 수 있다.Fig. 4 shows a control flow of the display system 100. Fig. Display system 100 may include video sequence 402. The video sequence 402 is an image of a series to be displayed on the device. For example, the image sequence 402 may include a first image to be displayed in a first time period, a second image to be displayed in a second time period, a third image to be displayed in a third time period ..., and the like. The first period, the second period, and the third period are defined as different times or different time slots and are different periods. The video sequence 402 may be processed to be displayed on the first device 102.

영상 시퀀스 402는 이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408을 포함할 수 있다. 현재 입력 영상 406은 표시되기 위해 처리된 영상 시퀀스 402 속 영상으로 정의된다. 이전 입력 영상 404는 현재 입력 영상 406에 바로 앞서 표시되기 위해 처리된 영상이다. 다음 입력 영상 408은 현재 입력 영상 406 바로 다음에 표시되기 위해 처리될 영상이다. The video sequence 402 may include a previous input image 404, a current input image 406, and a next input image 408. The current input image 406 is defined as an image of the processed image sequence 402 to be displayed. The previous input image 404 is an image processed to be displayed immediately before the current input image 406. The next input image 408 is the image to be processed to be displayed immediately after the current input image 406.

설명을 위해 디스플레이 시스템 100은 이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408을 포함하는 영상 시퀀스 402를 포함하는 것으로 나타나 있지만, 영상 시퀀스 402가 포함하는 영상의 수는 다를 수 있다. 예컨대, 영상 시퀀스 402는 이전 입력 영상 404 이전의 하나 이상의 영상들, 다음 입력 영상 408 이후의 하나 이상의 영상들 혹은 이들의 조합을 포함할 수 있다. 또 다른 예를 들면, 영상 시퀀스 402는 이전 입력 영상 404 이전의 영상들 혹은 다음 입력 영상 408 이후의 영상들만을 포함할 수 있다.For illustrative purposes, the display system 100 includes an image sequence 402 that includes a previous input image 404, a current input image 406, and a next input image 408, although the number of images included in the image sequence 402 may be different. For example, the video sequence 402 may include one or more images prior to the previous input image 404, one or more images after the next input image 408, or a combination thereof. As another example, the video sequence 402 may include only images prior to the previous input image 404 or images subsequent to the next input image 408.

이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408은 이전 입력 픽셀 410, 현재 입력 픽셀들 412 그리고 다음 입력 픽셀 414를 각각 포함할 수 있다. 이전 입력 픽셀 410, 현재 입력 픽셀들 412 그리고 다음 입력 픽셀 414는 이전 입력 영상 404, 현재 입력 영상 406, 그리고 다음 입력 영상 408을 각각 생성해내는데 쓰이는 개별 픽셀들이다.The previous input image 404, the current input image 406, and the next input image 408 may include the previous input pixel 410, the current input pixels 412, and the next input pixel 414, respectively. The previous input pixel 410, the current input pixels 412, and the next input pixel 414 are individual pixels used to generate the previous input image 404, the current input image 406, and the next input image 408, respectively.

디스플레이 시스템 100은 영상 깊이 맵 416(image depth map)을 포함할 수 있다. 영상 깊이 맵 416은 한 영상 속 각각의 픽셀에 대한 깊이 정보를 나타내는 맵이다. 영상 깊이 맵 416은 각각의 현재 입력 픽셀들 412에 대한 영상 픽셀 깊이(image pixel) 418의 맵일 수 있다. 영상 픽셀 깊이 418은 영상의 지각 거리 혹은 지각 깊이의 측정 값이다. 예컨대, 현재 입력 픽셀들 412중 첫 번째 픽셀의 영상 픽셀 깊이 418 값이 현재 입력 픽셀들 412의 두 번째 픽셀의 그 값보다 더 클 경우, 현재 입력 픽셀들 412의 첫 번째 픽셀은 현재 입력 픽셀들 412의 두 번째 픽셀보다 더 가깝게 나타날 수 있다.The display system 100 may include an image depth map 416. [ The video depth map 416 is a map indicating depth information for each pixel in one image. The image depth map 416 may be a map of image pixel depths 418 for each of the current input pixels 412. The image pixel depth 418 is a measure of the perception distance or perception depth of the image. For example, if the value of the image pixel depth 418 of the first pixel of the current input pixels 412 is greater than that of the second pixel of the current input pixels 412, the first pixel of the current input pixels 412 is the current input pixels 412 Lt; RTI ID = 0.0 > of the second < / RTI >

디스플레이 시스템 100은 픽셀 모션 모듈 420을 포함할 수 있다. 픽셀 모션 모듈 420은 영상 시퀀스들을 가로질러 픽셀을 추적하고 픽셀의 순간 모션을 계산한다. 순간 모션이란 영상 시퀀스 혹은 시리즈 내에서 한 영상으로부터 다음 영상으로 특정 픽셀의 장소나 위치의 변화를 뜻한다. 픽셀 모션 모듈 420은 영상 시퀀스 402를 수신할 수 있다. 픽셀 모션 모듈 420은 선택 가능하다.Display system 100 may include a pixel motion module 420. The pixel motion module 420 tracks the pixels across the image sequences and calculates the instantaneous motion of the pixels. Instantaneous motion refers to a change in the position or position of a specific pixel from one sequence to another in a video sequence or series. The pixel motion module 420 may receive the video sequence 402. The pixel motion module 420 is selectable.

픽셀 모션 모듈 420은 모션 벡터 (motion vector) 422를 계산할 수 있다. 모션 벡터 422는 픽셀의 순간 동작을 나타내는 정보이다. 모션 벡터 422는 현재 입력 픽셀들 412의 순간 모션의 측정 값이다. 예컨대, 모션 벡터 422는 FIG. 2의 X축 213과 FIG. 2의 X축 217을 따른 변화, 혹은 순간 모션의 크기와 방향을 나타내는 벡터로서 측정될 수 있다. 모션 벡터 422의 계산은 선택 가능하다.The pixel motion module 420 may calculate a motion vector 422. The motion vector 422 is information indicating an instantaneous operation of the pixel. The motion vector 422 is a measure of the instantaneous motion of the current input pixels 412. For example, the motion vector 422 is shown in FIG. 2 X axis 213 and FIG. 2 along the X axis 217, or as a vector representing the magnitude and direction of the instantaneous motion. The calculation of the motion vector 422 is selectable.

또 다른 예에서, 픽셀 모션 모듈 420은 이전 입력 영상 404 속 이전 입력 픽셀 410중 대응되는 하나의 픽셀, 다음 입력 영상 408 속 다음 입력 픽셀 중 대응되는 하나의 픽셀 혹은 이들의 조합을 식별하여 영상 시퀀스 402 속 현재 입력 픽셀들 412를 추적할 수 있다.In another example, the pixel motion module 420 identifies a corresponding one of the previous input pixels 410 in the previous input image 404, a corresponding one of the next input pixels in the next input image 408, or a combination thereof to generate the image sequence 402 The current input pixels 412 can be tracked.

픽셀 모션 모듈 420은 다양한 다른 방식을 통해 현재 입력 픽셀들을 위한 모션 벡터 422를 계산할 수 있다. 예컨대, 픽셀 모션 모듈 420은 블록 매칭 알고리즘(block matching algorithms), 위상 상관 방법(phase correlation methods), 순환적 알고리즘(recursive algorithms)을 사용할 수 있다. 또 다른 예에서, 픽셀 모션 모듈 420은 평균 자승 오차(mean squared error: MSE), 절대 차이의 합(sum of absolute differences: SAD) 혹은 평균 절대 차(mean absolute differences: MAD)와 같은 다양한 방식을 통해 픽셀 모션을 확인할 수 있다.The pixel motion module 420 may calculate the motion vector 422 for the current input pixels in various other ways. For example, the pixel motion module 420 may use block matching algorithms, phase correlation methods, and recursive algorithms. In another example, the pixel motion module 420 may be used in various ways such as a mean squared error (MSE), a sum of absolute differences (SAD), or mean absolute differences (MAD) You can see the pixel motion.

디스플레이 시스템 100은 오브젝트 검출 모듈 424를 포함할 수 있다. 오브젝트 검출 모듈 424는 영상 속 오브젝트를 검출하고 특정 지역의 순간 모션 426을 갖는 오브젝트를 검출한다. 특정 지역의 순간 모션 426은 영상 내 제한되거나 특정된 영역이나 부분 내에서 발생하는 모션을 뜻한다. 이러한 기능들 각각은 이후 설명에서 자세히 기술될 것이다. 오브젝트 검출 모듈 424는 영상 시퀀스 402를 수신할 수 있다. 선택적으로, 오브젝트 검출 모듈 424는 모션 벡터 422를 수신할 수 있다.Display system 100 may include object detection module 424. The object detection module 424 detects the object in the video and detects the object having the instantaneous motion 426 in the specific area. Instantaneous motion 426 in a particular region refers to motion that occurs within an image or within a specified region or region. Each of these functions will be described in detail in the following description. The object detection module 424 may receive the video sequence 402. Optionally, the object detection module 424 may receive the motion vector 422.

오브젝트 검출 모듈 424는 입력 오브젝트 픽셀들 428을 식별할 수 있다. 입력 오브젝트 픽셀들 428은 한 영상 속 오브젝트나 시리즈의 영상 속 오브젝트를 나타내는 픽셀을 뜻한다. 오브젝트 오브젝트 픽셀들 428은 현재 입력 영상 406, 이전 입력 영상 404, 다음 입력 영상 408 혹은 이들의 조합 내의 입력 오브젝트 430을 나타낼 수 있다.The object detection module 424 may identify the input object pixels 428. The input object pixels 428 indicate a pixel representing an object in a video or an object in a video of a series. The object object pixels 428 may represent an input object 430 within the current input image 406, the previous input image 404, the next input image 408, or a combination thereof.

입력 오브젝트 430은 영상 스트림이나 시퀀스 내 상대적으로 고정된 위치에 있는 오브젝트를 뜻한다. 상대적으로 고정된 위치를 갖는 오브젝트는 영상 스트림이나 시퀀스 내 X축 213이나 Z축 217을 따라 거의 혹은 전혀 이동하지 않는 오브젝트를 뜻한다. 예컨대, 입력 오브젝트 430은 현재 입력 영상 406, 이전 입력 영상 404, 다음 입력 영상 408 혹은 이들의 조합 내에서 상대적으로 고정된 위치에 나타나는 일련 혹은 일단의 자막용 문자, 스포츠 경기의 점수판, TV 방송국 로고와 같은 애니메이션으로 만든 혹은 비 애니메이션으로 만든 로고, 광고나 최신 뉴스를 위한 화면 이동 문자와 같은 이동 배너나 텍스트 필드 등을 포함할 수 있다. 입력 오브젝트 430은 영상 스트림이나 시퀀스 속 다수의 순차적 영상들을 통해 나타나는 오브젝트일 수 있다.The input object 430 refers to an object at a relatively fixed position in a video stream or sequence. An object with a relatively fixed position is an object that moves little or no along the X axis 213 or Z axis 217 in the video stream or sequence. For example, the input object 430 may include a series of or a series of subtitle characters, a scoreboard of a sports game, a TV broadcast station logo, or the like, appearing at a relatively fixed position within the current input image 406, the previous input image 404, the next input image 408, A logo created by animation or non-animation, such as animation, or a moving banner or text field, such as a scroll character for an advertisement or the latest news. The input object 430 may be an object represented through a video stream or a sequence of images in a sequence.

디스플레이 시스템 100은 오브젝트 조정 모듈 432를 포함할 수 있다. 오브젝트 조정 모듈 432는 현재 입력 영상 406의 전체 혹은 일부분의 입력 오브젝트 픽셀들 428의 오검출을 줄이거나 막는 역할을 한다. 이런 기능들 각각은 이후 자세히 설명될 것이다 오브젝트 조정 모듈 432는 선택 가능하다.Display system 100 may include an object adjustment module 432. The object adjustment module 432 serves to reduce or prevent erroneous detection of all or a part of the input object pixels 428 of the current input image 406. Each of these functions will be described in detail later. The object adjustment module 432 is selectable.

디스플레이 시스템 100은 오브젝트 깊이 모듈 434를 포함할 수 있다. 오브젝트 깊이 모듈 434는 깊이 가중치(depth weight)를 계산하고, 깊이 가중치를 갖고 영상 속 오브젝트의 깊이를 계산하는 역할을 한다. 이러한 기능들 각각은 이후 자세히 설명될 것이다.Display system 100 may include an object depth module 434. The object depth module 434 calculates the depth weight and calculates the depth of the object in the image with the depth weight. Each of these functions will be described in detail later.

오브젝트 깊이 모듈 434는 오브젝트 픽셀 깊이 436를 생성할 수 있다. 오브젝트 픽셀 깊이 436은 입력 오브젝트 픽셀들 428의 지각 거리 혹은 지각 깊이 211의 측정 값을 뜻한다.The object depth module 434 may generate an object pixel depth 436. [ The object pixel depth 436 is a measure of the perception distance or perception depth 211 of the input object pixels 428.

디스플레이 시스템 100은 영상 변환 모듈 438을 포함할 수 있다. 영상 변환 모듈 438은 지각 깊이 211을 갖는 영상을 생성해내는 역할을 한다. 영상 변환 모듈 438은 제 1 디바이스 102에 표시를 위해 영상 깊이 맵 416을 현재 입력 영상 406에 인가하여 현재 입력 영상 406에서 처리 영상 212를 생성해낼 수 있다.Display system 100 may include an image transformation module 438. The image conversion module 438 serves to generate an image having a perception depth 211. The image conversion module 438 can generate the processed image 212 from the current input image 406 by applying the image depth map 416 to the current input image 406 for display on the first device 102.

영상 변환 모듈 438은 영상 픽셀 깊이 418을 현재 입력 픽셀들 412에 인가하여 현재 처리 픽셀 442를 생성할 수 있다. 현재 처리 픽셀 442는 지각 깊이 211을 갖도록 처리된 픽셀을 뜻한다. 처리 영상 212는 현재 처리 픽셀 442로부터 생성해낼 수 있다.The image transformation module 438 may apply the image pixel depth 418 to the current input pixels 412 to generate the current processing pixel 442. The current processing pixel 442 refers to a pixel processed to have a perception depth 211. The processed image 212 may be generated from the current processing pixel 442.

영상 변환 모듈 438은 오브젝트 픽셀 깊이 436을 입력 오브젝트 픽셀들 428에 인가하여 처리 오브젝트 픽셀 444를 생성할 수 있다. 처리 오브젝트 픽셀 444는 지각 깊이 211을 갖는 영상 속 오브젝트를 나타내는 픽셀을 뜻한다. 처리 오브젝트 214는 처리 오브젝트 픽셀 444로부터 생성해 낼 수 있다.The image transformation module 438 may apply the object pixel depth 436 to the input object pixels 428 to generate the processing object pixel 444. [ The processing object pixel 444 refers to a pixel representing an in-video object having a perception depth 211. Processing object 214 may be generated from processing object pixel 444.

디스플레이 시스템 100은 영상 디스플레이 모듈 440을 포함할 수 있다. 영상 디스플레이 모듈은 디바이스 상에 영상을 표시하는 역할을 한다. 영상 디스플레이 모듈 440은 제 1 디바이스 102 상에 처리 영상 212을 표시할 수 있다.Display system 100 may include an image display module 440. The image display module serves to display an image on the device. The image display module 440 may display the processed image 212 on the first device 102.

디스플레이 시스템 100은 제 1 디바이스 혹은 도 1의 제 2 디바이스 106 상에서 아니면 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치한 상태로 실행될 수 있다. 예컨대, 제 2 디바이스 106은 현재 입력 영상 406, 이전 입력 영상 404, 다음 입력 영상 408 혹은 그 조합을 포함하는 영상 시퀀스 402를 도3의 제 2 디바이스 전송 310를 통해 도3의 통신 경로 104 상에서 전송할 수 있다. 제 1 디바이스 102는 도 3의 제 1 통신부를 이용해 영상 시퀀스 402를 수신할 수 있다. 도 3의 제 1 통신 인터페이스 328은 도 3의 제 1 저장부, 도 3의 제 1 제어부 혹은 모두에게 상기 영상 스트림을 전송한다.The display system 100 may be executed on the first device or on the second device 106 of FIG. 1, or alternatively, between the first device 102 and the second device 106. For example, the second device 106 may transmit the video sequence 402 including the current input video 406, the previous input video 404, the next input video 408, or a combination thereof, over the communication path 104 of FIG. 3 through the second device transmission 310 of FIG. 3 have. The first device 102 may receive the video sequence 402 using the first communication unit of FIG. The first communication interface 328 of FIG. 3 transmits the video stream to the first storage unit of FIG. 3, the first control unit of FIG. 3, or all of them.

도 3의 제 1 소프트웨어 326 혹은 제 1 제어부 312는 픽셀 모션 모듈 420, 오브젝트 검출 모듈 424, 오브젝트 조정 모듈 432, 오브젝트 깊이 모듈 434, 영상 변환 모듈 438 그리고 영상 디스플레이 모듈 440을 실행할 수 있다.3 may execute a pixel motion module 420, an object detection module 424, an object adjustment module 432, an object depth module 434, an image conversion module 438, and an image display module 440.

제 1 제어 인터페이스 332 혹은 제 1 저장 인터페이스 324는 처리 영상 212를 도 3의 제 1 디스플레이 인터페이스 330으로 전송할 수 있다. 제 1 디스플레이 인터페이스 330은 처리 영상 212를 수신하고 표시할 수 있다.The first control interface 332 or the first storage interface 324 may transmit the processed image 212 to the first display interface 330 of FIG. The first display interface 330 can receive and display the processed image 212.

디스플레이 시스템 100은 모듈 기능들이나 명령들을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 2 소프트웨어 342는 픽셀 모션 모듈 420이나 오브젝트 조정 모듈 432를 포함할 수 있다. 각각의 모듈들은 다른 모듈들과는 별개로 독립적으로 작동할 수 있다.Display system 100 illustrates module functions or instructions by way of example. Modules can be partitioned differently. For example, the second software 342 may include a pixel motion module 420 or an object adjustment module 432. Each module can operate independently of the other modules.

또한, 한 모듈에서 생성된 데이터는 서로 직접적으로 연결되지 않았어도 다른 모듈이 사용할 수 있다. 예컨대, 오브젝트 깊이 모듈 434는 영상 시퀀스 402를 수신할 수 있다.Also, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the object depth module 434 may receive the video sequence 402.

도 5는 오브젝트 검출 모듈 424의 도면이다. 오브젝트 검출 모듈 424는 오브젝트 식별 모듈 502를 이용하여 현재 입력 픽셀들 412에서 입력 오브젝트 픽셀들을 식별할 수 있다. 오브젝트 식별 모듈 502는 픽셀의 특성의 차이점을 기반으로 영상 속 오브젝트를 나타내는 픽셀들을 식별하는 역할을 한다. 오브젝트 식별 모듈 502는 픽셀의 특성상 차이점을 기반으로 현재 입력 픽셀들 412에서 입력 오브젝트 픽셀들 428을 식별할 수 있다.5 is a diagram of the object detection module 424. The object detection module 424 may identify the input object pixels at the current input pixels 412 using the object identification module 502. The object identification module 502 serves to identify pixels representing objects in a video based on differences in pixel characteristics. The object identification module 502 may identify the input object pixels 428 in the current input pixels 412 based on differences in the characteristics of the pixels.

픽셀의 특성들은 특정 픽셀의 성질이나 특징을 뜻한다. 예컨대, 픽셀의 특성들은 모션 벡터 422, 현재 입력 픽셀들 412의 색상, 현재 입력 픽셀들 412의 휘도, 혹은 현재 입력 픽셀들 412의 다른 성질이나 특징을 포함할 수 있다.The properties of a pixel refer to the properties or characteristics of a particular pixel. For example, the characteristics of the pixel may include the motion vector 422, the color of the current input pixels 412, the brightness of the current input pixels 412, or other properties or characteristics of the current input pixels 412.

오브젝트 식별 모듈 502는 현재 입력 픽셀들 412의 픽셀 특성상의 차이점 조합을 기반으로 입력 오브젝트 픽셀들을 식별할 수 있다. 예컨대, 오브젝트 검출 모듈 424는 모션 벡터 422, 색상, 현재 입력 픽셀들 412 중 인접한 픽셀들 간 혹은 현재 입력 픽셀들 412의 그룹들간 휘도의 차이점을 기반으로 아니면 유사하게는 현재 입력 영상 406 속 윤곽선(edge) 검출을 통해 입력 오브젝트 픽셀들 428을 식별할 수 있다.The object identification module 502 can identify input object pixels based on a difference combination on the pixel characteristics of the current input pixels 412. [ For example, the object detection module 424 may determine whether the motion vector 422, the color, the current input pixels 412 based on the difference in luminance between adjacent pixels or between groups of the current input pixels 412, ) Detection to identify the input object pixels 428.

구체적인 예를 들자면, 현재 입력 픽셀들 412의 모션 벡터 422가 현재 입력 픽셀들 412에 인접한 한 픽셀의 모션 벡터 422보다 낮을 경우, 오브젝트 검출 모듈 424는 현재 입력 픽셀들 412중 하나를 입력 오브젝트 픽셀들 428로 식별할 수 있다. 또 다른 구체적 예에서, 현재 입력 픽셀들 412중 인접한 픽셀들이나 현재 입력 픽셀들 412의 인접한 부분(segment)들에서 강하거나 날카로운 윤곽선(strong of sharp edge)이 검출되면, 오브젝트 검출 모듈은 현재 입력 픽셀들 412 중 하나를 입력 오브젝트 픽셀들 428로 식별할 수 있다.For example, if the motion vector 422 of the current input pixels 412 is lower than the motion vector 422 of one pixel adjacent to the current input pixels 412, the object detection module 424 detects one of the current input pixels 412 as the input object pixels 428 . In another specific example, if a strong or sharp edge is detected in adjacent pixels of the current input pixels 412 or adjacent segments of the current input pixels 412, the object detection module may detect current input pixels 412 may be identified by input object pixels 428. [

오브젝트 검출 모듈 424은 오브젝트 모션 모듈 504를 포함할 수 있다. 오브젝트 모션 모듈 504은 특정 지역의 순간적인 모션(localized temporal motion) 426을 갖는 픽셀을 식별하는 역할을 한다. 예컨대, 오브젝트 모션 모듈 504는 입력 오브젝트 픽셀들 428로 식별된 입력 오브젝트 픽셀들 428의 모션 벡터 422를 색상, 휘도, 윤곽선 검출 및 그 밖의 특징들을 기반으로 확인할 수 있다. 입력 오브젝트 픽셀들 428의 모션 벡터 422가 작고, 연속적이고, 방향성이 없고, 다수의 영상들을 걸쳐서 똑같은 크기의 제한된 공간에 한정되어 있거나, 혹은 이들의 조합일 경우, 오브젝트 모션 모듈 504는 입력 오브젝트 픽셀들 428이 특정 지역의 순간적인 모션 426을 포함하는 것으로 판단할 수 있다. 특정 지역의 순간적인 모션 426을 포함하는 입력 오브젝트 430의 예시들은 화면 이동 문자(scrolling text), 애니메이션으로 만든 로고나 심볼 혹은 움직이는 광고와 같은 오브젝트들을 포함할 수 있다.The object detection module 424 may include an object motion module 504. The object motion module 504 serves to identify pixels having a localized temporal motion 426 of a particular region. For example, the object motion module 504 may determine the motion vector 422 of the input object pixels 428 identified by input object pixels 428 based on color, brightness, contour detection, and other features. If the motion vector 422 of the input object pixels 428 is small, continuous, non-directional, confined to a limited space of the same size over a plurality of images, or a combination thereof, then the object motion module 504 generates input object pixels 428 < / RTI > includes instantaneous motion 426 in that particular area. Examples of input objects 430 including instantaneous motion 426 in a particular region may include objects such as scrolling text, animated logos, symbols, or animated advertisements.

디스플레이 시스템 100은 도 1의 제 1 디바이스 102 혹은 도 1의 제 2 디바이스 106 상이나 아니면 제 1 디바이스 102와 제 2 디바이스 106로 분할된 방식으로 실행될 수 있다. 예컨대, 도 3의 제 2 저장부는 오브젝트 식별 모듈 502를 저장할 수 있으며 제 1 제어부 312는 오브젝트 식별 모듈 502를 실행할 수 있다.The display system 100 may be implemented in a manner that is divided into the first device 102 of FIG. 1, the second device 106 of FIG. 1, or the first device 102 and the second device 106. For example, the second storage unit of FIG. 3 may store the object identification module 502 and the first control unit 312 may execute the object identification module 502.

디스플레이 시스템 100은 모듈의 기능들과 명령들을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 오브젝트 식별 모듈 502를 포함할 수 있으며 제 1 저장부 314는 오브젝트 모션 모듈 504를 포함할 수 있다. 각각의 모듈은 다른 모듈들과는 별개로 독립적으로 동작할 수 있다.The display system 100 exemplifies the functions and commands of the module. Modules can be partitioned differently. For example, the first control unit 312 may include an object identification module 502, and the first storage unit 314 may include an object motion module 504. Each module can operate independently of the other modules.

또한, 한 모듈에서 생성된 데이터는 서로 직접 연결되어 있지 않아도 다른 모듈이 사용할 수 있다. 예컨대, 오브젝트 모션 모듈 504는 영상 시퀀스 402를 수신할 수 있다.In addition, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the object motion module 504 may receive the video sequence 402.

도 6은 오브젝트 조정 모듈 432를 나타내는 도이다. 오브젝트 조정 모듈 432는 영상 조정 모듈 604과 로컬 조정 모듈 606을 이용하여 입력 오브젝트 픽셀들 428의 오검출을 방지할 수 있다. 오검출은 한 지역 내 픽셀의 부적합하거나 부정확한 검출 또는 식별을 뜻한다. 예컨대, 입력 오브젝트 픽셀 428의 오검출은 정지영상 혹은 스틸샷과 같이 현재 입력 영상 406이 나타내는 장면에서 움직임이 거의 혹은 전혀 없을 때 발생할 수 있다.6 is a diagram showing an object adjustment module 432. Fig. The object adjustment module 432 can prevent false detection of the input object pixels 428 using the image adjustment module 604 and the local adjustment module 606. [ Misdetection refers to inadequate or incorrect detection or identification of pixels within a region. For example, erroneous detection of the input object pixel 428 may occur when there is little or no motion in the scene represented by the current input image 406, such as a still image or a still shot.

영상 조정 모듈 604는 한 영상에서 나타내는 장면의 전체 픽셀 모션과 정보를 기반으로, 전체 영상 속 오브젝트를 나타내는 픽셀의 오검출을 방지하는 역할을 한다. 예컨대, 영상 조정 모듈 604는 영상 모션 평균(image motion average) 608을 영상 모션 임계값(image motion threshold) 610과 비교하여, 영상 속 입력 오브젝트 픽셀들 428을 정확하게 식별하기 위해 현재 입력 영상 406 내에 충분한 모션이 있는지를 판단할 수 있다.The image adjustment module 604 prevents erroneous detection of a pixel representing an object in the entire image based on the entire pixel motion and information of a scene represented by an image. For example, the image adjustment module 604 may compare an image motion average 608 with an image motion threshold 610 to determine if there is sufficient motion within the current input image 406 to correctly identify the input object pixels 428 in the image Can be determined.

영상 모션 평균 608은 한 영상 속 전체 픽셀 모션의 측정 값이다. 예컨대, 영상 조정 모듈 604는 현재 입력 영상 406 내 각 현재 입력 픽셀들 412의 모션벡터 422의 크기 값의 평균을 내어 영상 모션 평균 608을 계산할 수 있다. 또 다른 예에서, 영상 모션 평균 608의 높은 값은 같이 현재 입력 영상 406이 예컨대, 영화나 스포츠 경기의 액션 장면과 같은 높은 수준의 모션을 포함하는 장면을 표현한다고 의미할 수 있다. 이와는 반대로, 영상 모션 평균 608의 낮은 값은 현재 입력 영상 406이 예컨대, 뉴스 방송이나 인터뷰와 같이 낮은 수준의 모션을 포함한다고 의미할 수 있다.The image motion average 608 is a measurement value of the entire pixel motion in one image. For example, the video adjustment module 604 may calculate a video motion average 608 by averaging the magnitude values of the motion vectors 422 of each current input pixels 412 in the current input image 406. In another example, a high value of the image motion average 608 may mean that the current input image 406 represents a scene that includes a high level of motion, such as an action scene of a movie or a sporting event, for example. Conversely, a low value of the video motion average 608 may mean that the current input video 406 includes low-level motion, such as news broadcasts or interviews.

영상 모션 임계값 610은 한 영상이 오브젝트를 나타내는 픽셀을 정확히 식별하기 위한 충분한 전체 픽셀 모션을 갖고 있는 시점을 판단하기 위한 임계값를 뜻한다. 예컨대, 영상 모션 임계값 610은 모션이 거의 혹은 전혀 없는 정지 장면을 나타내는 기설정된 값 혹은 퍼센티지(percentage)일 수 있다.The image motion threshold 610 means a threshold for determining when a single image has sufficient overall pixel motion to accurately identify a pixel representing the object. For example, the image motion threshold 610 may be a predetermined value or a percentage indicating a still scene with little or no motion.

영상 모션 평균 608이 영상 모션 임계값 610보다 클 경우, 영상 조정 모듈 604는 현재 입력 영상 406이 입력 오브젝트 픽셀들 428을 정확하기 식별하기 위한 충분한 모션을 가지고 있는지를 판단할 수 있다. 예컨대, 영상 모션 평균 608이 영상 모션 임계값 610보다 크다고 영상 조정 모듈 604가 판단할 경우, 디스플레이 시스템 100은 오브젝트 깊이 모듈 434를 이용하여 입력 오브젝트 픽셀들 428의 오브젝트 픽셀 깊이 436을 계산할 수 있다. 이와는 반대로, 영상 모션 평균 608이 영상 모션 임계값 610보다 낮을 경우, 디스플레이 시스템 100은 오브젝트 픽셀 깊이 436의 계산을 건너뛰고 영상 픽셀 깊이 418을 사용할 수 있다.If the image motion average 608 is greater than the image motion threshold 610, then the image adjustment module 604 may determine whether the current input image 406 has enough motion to correctly identify the input object pixels 428. For example, if the image adjustment module 604 determines that the image motion average 608 is greater than the image motion threshold 610, the display system 100 may calculate the object pixel depth 436 of the input object pixels 428 using the object depth module 434. Conversely, if the image motion average 608 is lower than the image motion threshold 610, the display system 100 may skip the calculation of the object pixel depth 436 and use the image pixel depth 418.

영상 조정 모듈 604는 장면 조정 모듈 612를 포함할 수 있다. 장면 조정 모듈 612는 픽셀의 움직임이 거의 혹은 전혀 없는 영상 속 오브젝트를 나타내는 픽셀을 확인하는 역할을 한다. 장면 조정 모듈 612는 장면 정보 614를 기반으로 현재 입력 영상 406의 입력 오브젝트 픽셀들 428을 확인할 수 있다.The image adjustment module 604 may include a scene adjustment module 612. The scene adjustment module 612 serves to identify a pixel representing an object in the image with little or no motion of the pixel. The scene adjustment module 612 can identify the input object pixels 428 of the current input image 406 based on the scene information 614.

장면 정보 614는 현재 입력 영상 406이 나타내는 장면의 유형을 설명하는 정보를 뜻한다. 장면 정보 614는 현재 입력 영상 406이 나타내는 장면의 모든 유형을 설명할 수 있다. 예컨대, 장면 정보 614는 홈 쇼핑 네트워크의 장면, 스포츠 방송의 방면 혹은 뉴스 방송일 수 있다.The scene information 614 indicates information describing the type of a scene represented by the current input image 406. The scene information 614 may describe all types of scenes that the current input image 406 represents. For example, the scene information 614 may be a scene of a home shopping network, a direction of a sports broadcast, or a news broadcast.

장면 조정 모듈 612는 특정 장면 정보들 614을 포함하는 현재 입력 영상 406의 입력 오브젝트 픽셀들 428을 확인할 수 있다. 예컨대, 장면 정보 614가 영상 모션 임계값 610보다 낮은 값의 영상 모션 평균 608을 갖는 장면이지만 입력 오브젝트 430와 공통적으로 연결된 장면일 경우, 장면 조정 모듈 612는 현재 입력 픽셀들 412를 입력 오브젝트 픽셀들 428로 확인할 수 있다. 예컨대, 입력 오브젝트 430과 공통적으로 연결된 장면 정보 614는 자막, 로고, 박스 속 문구나 정보 예를 들어, 홈쇼핑 장소 혹은 뉴스 방송 장면과 같은 장면들을 공통적으로 포함하는 장면을 포함할 수 있다.The scene adjustment module 612 can identify the input object pixels 428 of the current input image 406 including specific scene information 614. [ For example, if the scene information 614 is a scene having an image motion average 608 lower than the image motion threshold value 610 but is a scene connected in common with the input object 430, the scene adjustment module 612 may convert the current input pixels 412 to input object pixels 428 . For example, the scene information 614 commonly associated with the input object 430 may include a scene that commonly includes scenes such as a subtitle, a logo, a boxed phrase or information, for example, a home shopping place or a news broadcast scene.

로컬 조정 모듈 606은 픽셀 모션이 거의 혹은 전혀 없는 영상의 특정 영역에 위치한 오브젝트를 나타내는 픽셀들의 오검출을 방지한다. 예컨대, 로컬 조정 모듈 606은 줌 씬(zoom scene) 616 속 오브젝트를 나타내는 픽셀의 오검출을 방지한다. 줌 씬 616은 영상의 일부분 내부 혹은 외부에 포커스를 맞춘 장면을 뜻한다.The local adjustment module 606 prevents erroneous detection of pixels representing an object located in a particular area of the image with little or no pixel motion. For example, the local adjustment module 606 prevents false detection of a pixel representing an object in a zoom scene 616. Zoom scene 616 refers to a scene that is focused on the inside or outside of a part of the image.

로컬 조정 모듈 606은 로컬 모션 모듈 618을 이용하여 현재 입력 영상 406의 일정 지역에 위치한 영역을 식별할 수 있다. 로컬 모션 모듈 618은 카메라 줌 기능을 사용해 영상의 부분들을 식별하는 역할을 한다. 예컨대, 중심부에서 외부로 먼 방사형 방향을 띄는 현재 입력 픽셀들 412에 대한 모션 벡터 422를 갖는 높은 모션 영역으로 둘러 싸여진, 모션이 거의 또는 전혀 없는 로컬 부분이나 아니면 픽셀의 모션이 거의 혹은 전혀 없는 영역을 식별하여 줌(zoom)을 검출할 수 있다. The local adjustment module 606 may use the local motion module 618 to identify an area located in a certain area of the current input image 406. The local motion module 618 serves to identify portions of the image using the camera zoom function. For example, a local portion with little or no motion, or a region with little or no motion of the pixel, surrounded by a high-motion region having a motion vector 422 for the current input pixels 412, And can detect a zoom.

로컬 모션 모듈 618이 줌 씬 616을 검출할 경우, 로컬 조정 모듈 606은 모션이 픽셀 모션이 거의 혹은 전혀 없는 현재 입력 영상 406의 일부에 위치한 입력 오브젝트 픽셀들 428의 오브젝트 픽셀 깊이 436를 계산하는 것을 방지할 수 있다.When the local motion module 618 detects the zoom scene 616, the local adjustment module 606 prevents the motion from calculating the object pixel depth 436 of the input object pixels 428 located in a portion of the current input image 406 with little or no pixel motion can do.

디스플레이 시스템 100은 도 1의 제 1 디바이스 102 상 혹은 도 1의 제 2 디바이스 106 상이나 아니면 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치한 상태에서 실행될 수 있다. 예컨대, 도 3의 제 2 저장부 346은 장면 정보 614를 저장할 수 있으며 제 1 제어부 312는 장면 조정 모듈 612를 실행할 수 있다.The display system 100 may be executed on the first device 102 of FIG. 1 or on the second device 106 of FIG. 1, or alternatively, between the first device 102 and the second device 106. For example, the second storage unit 346 of FIG. 3 may store the scene information 614 and the first control unit 312 may execute the scene adjustment module 612.

디스플레이 시스템 100은 모듈 기능들과 명령을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 영상조정 모듈 604를 포함할 수 있고 제 1 저장부 314는 로컬 조정 모듈 606을 포함할 수 있다. 각각의 모듈은 다른 모듈들과는 별개로 독립적으로 작동할 수 있다.Display system 100 illustrates module functions and instructions as an example. Modules can be partitioned differently. For example, the first control unit 312 may include an image adjustment module 604, and the first storage unit 314 may include a local adjustment module 606. Each module can operate independently of the other modules.

또한, 한 모듈에서 생성된 데이터는 직접 연결되어 있지 않아도 다른 모듈이 사용할 수 있다. 예컨대, 로컬 조정 모듈 606은 영상시퀀스 402를 수신할 수 있다.Also, data generated in one module can be used by other modules even if they are not directly connected. For example, the local adjustment module 606 may receive the video sequence 402.

도 7은 현재 입력 영상 406의 영상 깊이 맵 426 일부의 예이다. 영상 깊이 맵 416의 일부는 7x9 크기의 픽셀 상자로 나타나 있다. 영상 깊이 맵 416은 현재 입력 픽셀들 412, 입력 오브젝트 픽셀들 428 그리고 영상 픽셀 깊이 418을 포함할 수 있다. 현재 입력 픽셀들 412는 실선 정사각형으로 그려졌다. 입력 오브젝트 픽셀들 428은 점선 정사각형으로 그려졌다. 영상 픽셀 깊이 418은 현재 입력 픽셀들 412와 입력 오브젝트 픽셀들 428 각각의 내부의 숫자로 나타난다. 밑줄 친 숫자들은 입력 오브젝트 픽셀들 428의 영상 픽셀 깊이 418을 나타낸다. 영상 깊이 맵 416 윗부분의 숫자들은 열 숫자들이며 영상 깊이 맵 416의 왼쪽 측면 숫자들은 행 숫자들이다.7 is an example of a part of the video depth map 426 of the current input image 406. FIG. A portion of the image depth map 416 is represented by a 7x9 pixel box. The video depth map 416 may include current input pixels 412, input object pixels 428, and a video pixel depth 418. The current input pixels 412 are drawn with solid line squares. The input object pixels 428 are drawn with a dotted line square. The image pixel depth 418 is represented by a number inside each of the current input pixels 412 and the input object pixels 428, respectively. The underlined numbers represent the image pixel depth 418 of the input object pixels 428. The numbers at the top of the video depth map 416 are column numbers and the left side numbers of the video depth map 416 are row numbers.

예컨대, 현재 입력 픽셀들 412과 입력 오브젝트 픽셀들 428의 영상 픽셀 깊이 418의 높은 값은 도 2의 지각 깊이 211의 높은 값을 나타낸다. 구체적인 예를 들자면, 각각 높은 값의 영상 픽셀 깊이 418을 갖는 현재 입력 픽셀들 412와 1행의 입력 오브젝트 픽셀들 428은 영상 픽셀 깊이 418의 값이 낮은 7행의 픽셀들보다 더 가깝게 나타날 것이다.For example, the high value of the image pixel depth 418 of the current input pixels 412 and the input object pixels 428 represents a high value of the perception depth 211 of FIG. As a specific example, the current input pixels 412 and input object pixels 428, each having a high value image pixel depth 418, will appear closer to seven rows of pixels having a low image pixel depth 418 value.

도 8은 오브젝트 깊이 모듈 434의 도면이다. 오브젝트 깊이 모듈 434는 깊이 가중치 모듈 802를 포함할 수 있다. 깊이 가중치 모듈 802는 영상 속 오브젝트을 나타내는 픽셀의 깊이를 계산하기 위해 사용되는 가중치 팩터(factor)를 계산하는 역할을 한다. 깊이 가중치 모듈 802는 깊이 가중치 804를 계산할 수 있다.8 is a drawing of the object depth module 434. [ The object depth module 434 may include a depth weight module 802. The depth weighting module 802 serves to compute a weighting factor used to calculate the depth of a pixel representing an in-video object. The depth weight module 802 can calculate the depth weight 804.

깊이 가중치 804는 깊이 후보 806과 다양한 픽셀의 속성과 특성들에 기반한 값을 뜻한다. 깊이 가중치 804는 영상 픽셀 깊이 418, 고정 깊이 808, 영상 최대 깊이 810, 일시 최고 깊이 812, 행 평균 깊이 814, 행 최대 깊이 816 그리고 로컬 깊이 818을 포함할 수 있는 깊이 후보 806에 기반하여 계산될 수 있다. 깊이 가중치 804는 현재 입력 영상 406에 있는 입력 오브젝트 픽셀 428 각각으로부터 계산될 수 있다.Depth weight 804 refers to depth candidate 806 and values based on properties and properties of various pixels. The depth weight 804 can be calculated based on the depth candidate 806, which may include a video pixel depth 418, a fixed depth 808, a video maximum depth 810, a temporal maximum depth 812, a row average depth 814, a row maximum depth 816, have. The depth weight 804 may be calculated from each of the input object pixels 428 in the current input image 406.

고정 깊이 808은 영상의 위치에 기반한, 변하지 않는 깊이의 값을 뜻한다. 예컨대, 오브젝트 픽셀 깊이 436을 고정 깊이 808로 갖는 입력 오브젝트 403은 현재 입력 영상 406의 위치나 입력 오브젝트 430에 인접한 현재 입력 영상 406 일부의 지각 깊이 211와 상관없이 동일한 지각 깊이 211 값을 갖는다.Fixed Depth 808 refers to the value of the unchanged depth based on the location of the image. For example, the input object 403 having the object pixel depth 436 at the fixed depth 808 has the same perception depth 211 regardless of the position of the current input image 406 or the perception depth 211 of a portion of the current input image 406 adjacent to the input object 430.

고정 깊이 808은 영상 시퀀스의 기설정된 연속된 값일 수 있으며, 영상 시퀀스 속 영상들간에 그 값이 다를 수 있고, 혹은 반복적(iterative) 혹은 재귀적(recursive) 방법을 통해 영상 시퀀스의 그 값이 휴리스틱하게 판단될 수 있다. 구체적인 예를 들자면, 고정 깊이 808은 예컨대, 8 비트 깊이 값은 128인 것과 같은 초기 설정에 근거할 수 있다. The fixed depth 808 may be a predetermined continuous value of the video sequence, and the value may be different between images in the video sequence, or the value of the video sequence may be heuristically determined through an iterative or recursive method Can be judged. As a specific example, the fixed depth 808 may be based on an initial setting such as an 8-bit depth value of 128, for example.

영상 최대 깊이 810은 영상 속 픽셀의 최대 깊이에 근거한 깊이 측정치이다. 영상 최대 깊이 810은 현재 입력 영상 406 내에서 최대 영상 픽셀 깊이 418를 갖는 현재 입력 픽셀들 412의 퍼센티지(percentage)로 계산될 수 있다. 예컨대, 오브젝트 픽셀 깊이 436를 영상 최대 깊이 810으로 갖는 입력 오브젝트 430의 지각 깊이 211 값은 최대의 지각 깊이 211을 갖는 현재 입력 영상 406의 일부보다도 낮은 퍼센티지를 갖을 것이다. 구체적인 예를 들자면, 영상 최대 깊이 810은 현재 입력 영상 406 내에서 최대의 영상 픽셀 깊이 418을 갖는 현재 입력 픽셀들 412의 영상 픽셀 깊이 211 값의 95퍼센트일 수 있다. The image maximum depth 810 is a depth measurement based on the maximum depth of the pixels in the image. The image maximum depth 810 may be calculated as a percentage of the current input pixels 412 having the maximum image pixel depth 418 within the current input image 406. [ For example, the value of the perception depth 211 of the input object 430 having the object pixel depth 436 at the image maximum depth 810 will have a lower percentage than the portion of the current input image 406 having the maximum perception depth 211. For example, the image maximum depth 810 may be 95 percent of the image pixel depth 211 of the current input pixels 412 having the largest image pixel depth 418 within the current input image 406.

일 실시 예로 영상 최대 깊이 810는 도 7처럼 도시될 수 있다. 도 7에서, 영상 최대 깊이 810은 9.5일 수 있으며, 이 값은 1행 5-7열에 있는 영상 픽셀 깊이 418의 최대 값 10의 95%에 해당하는 값일 수 있다.In one embodiment, the maximum image depth 810 may be illustrated in FIG. In FIG. 7, the image maximum depth 810 may be 9.5, which may be a value corresponding to 95% of the maximum value 10 of the image pixel depth 418 in row 1, line 5-7.

순간 최대 깊이 812는 다수의 시퀀스 영상들 내 최대 픽셀 깊이의 평균값을 뜻한다. 예컨대, 순간 최대 깊이 812는 이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408의 영상 최대 깊이 810의 평균값을 내어 계산될 수 있다. 순간 최대 깊이 812는 영상 시퀀스 402의 영상 최대 깊이 810 평균값의 95퍼센트 일 수 있다.The instantaneous maximum depth 812 refers to the average value of the maximum pixel depth in a plurality of sequence images. For example, the instantaneous maximum depth 812 can be calculated by averaging the maximum image depth 810 of the previous input image 404, the current input image 406, and the next input image 408. The instantaneous maximum depth 812 may be 95 percent of the maximum image depth 810 average of the video sequence 402.

행 평균 깊이 814는 영상 속 하나 이상의 행들의 평균 깊이 값을 뜻한다. 깊이 가중치 모듈 802는 행 평균 깊이 모듈 820을 이용하여 행 평균 깊이 814를 계산할 수 있다. 행 평균 깊이 모듈 820은 현재 입력 픽셀들 412의 현재 행 822에 대한 행 평균 깊이 814를 계산할 수 있다. 현재 행 822는 행 평균 깊이 모듈 820에 의해 평균값을 낸 현재 입력 픽셀들 412의 행을 뜻한다. 현재 행 822는 행 폭 824를 가지며, 행 폭은 현재 입력 영상 406의 폭을 아우르는 현재 입력 픽셀들 412의 총 개수를 뜻한다. The row average depth 814 refers to the average depth value of one or more rows in the image. The depth weighting module 802 may calculate the row average depth 814 using the row average depth module 820. [ The row average depth module 820 may calculate a row average depth 814 for the current row 822 of the current input pixels 412. The current row 822 refers to the row of current input pixels 412 which averaged by the row average depth module 820. The current row 822 has a row width 824 and the row width refers to the total number of current input pixels 412 that span the width of the current input image 406.

행 평균 깊이 814는 현재 입력 픽셀들 412에 수직적으로 인접한 행들 수의 평균을 포함하도록 계산될 수 있으며, 이때 현재 입력 픽셀들에 수직적으로 인접한 행들은 현재 입력 픽셀들 412의 현재 행 811의 위나 아래에 위치한다. 행 평균 깊이 814의 계산에 포함되는 행들의 수는 그룹 팩터(group factor) 826에 의해 결정될 수 있으며, 이때 그룹 팩터는 행 평균 깊이 814의 계산에 포함된 수직적으로 인접한 행들의 수를 뜻한다. 그룹 팩터 826는 상수일 수 이거나 현재 행 822에 인접한 행들 속 입력 오브젝트 픽셀들 428의 검출을 기반하여 그 값이 다양할 수 있다. The row average depth 814 may be computed to include an average of the number of rows vertically adjacent to the current input pixels 412 where the rows vertically adjacent to the current input pixels are positioned above or below the current row 811 of the current input pixels 412 Located. The number of rows included in the calculation of the row average depth 814 may be determined by a group factor 826, where the group factor refers to the number of vertically adjacent rows included in the calculation of the row average depth 814. The group factor 826 may be a constant number or may vary in value based on the detection of row input object pixels 428 adjacent to the current row 822.

행 평균 깊이 모듈 820은 다음과 같은 수학식 (1)에 따라 행 평균 깊이 814를 계산할 수 있다.The row average depth module 820 can calculate the row average depth 814 according to the following equation (1).

Figure 112012029603085-pat00001
Figure 112012029603085-pat00001

수학식 1에서 Depth row _ average 는 행 평균 깊이(814)이고, width는 행 폭(824)이고, j는 현재 행(822)이고, i는 현재 행(822)에서 i번째 픽셀이고, K는 그룹 팩터 (826)이고, Depth background (ii , jj)는 행 폭(824)를 따라 현재 행(822) j와 위치 i에 해당하는 영상 픽셀 깊이이다. 예컨대, 행 평균 깊이(814)를 오브젝트 픽셀 깊이(436)로 갖는 입력 오브젝트(430)의 지각 깊이(211)는 행 평균 깊이(814)를 구하는데 사용되었던 현재 입력 픽셀들(412)의 행들에 대한 지각 깊이(211) 평균값일 것이다.And Depth row _ average row average depth 814 In Equation 1, width is the line width (824), j is the current row (822), i is the i th pixel in the current line (822), K is Is the group factor 826 and Depth background ( ii , jj ) is the image pixel depth corresponding to the current row 822 j and position i along the row width 824. For example, the perceptual depth 211 of the input object 430 having a row average depth 814 as the object pixel depth 436 may be greater than the perceptual depth 211 of the input image 430 at the current input pixels 412, And the crustal depth (211) for the crust.

행 평균 깊이 모듈(820)의 예는 도 7에 도시되어 있을 수 있다. 깊이 가중치 모듈(802)는 입력 오브젝트 픽셀들(428)을 포함하는 하나의 행에 대한 행 평균 깊이 814를 계산할 수 있다. 예를 들어, 두 번째 행의 행 평균 깊이(814)는 8.7 일 수 있고, 세 번째 행의 행 평균 깊이(814)는 7.2 일 수 있고, 다섯 번째 행의 행 평균 깊이(814)는 3.6 일 수 있고, 여섯 번째 행의 행 평균 깊이(814)는 2. 5일 수 있다. 이와 유사하게, 깊이 가중치 모듈(802)는 입력 오브젝트 픽셀들(428)을 갖는 인접 행들에 대한 행 평균 깊이를 계산할 수 있다. 예컨대, 두 번째와 세 번째 행들의 행 평균 깊이(814)는 8일 수 있고 다섯 번째와 여섯 번째 행들의 행 평균 깊이(814)는 3.1 일 수 있다.An example of the row average depth module 820 may be shown in FIG. The depth weighting module 802 may calculate a row average depth 814 for one row that includes input object pixels 428. For example, the row average depth 814 of the second row may be 8.7, the row average depth 814 of the third row may be 7.2, and the row average depth 814 of the fifth row may be 3.6 days , And the row average depth 814 of the sixth row may be 2.5. Similarly, the depth-weighting module 802 may calculate row-mean depth for adjacent rows with input object pixels 428. [ For example, the row average depth 814 of the second and third rows may be 8 and the row average depth 814 of the fifth and sixth rows may be 3.1.

행 최대 깊이(816)는 현재 입력 픽셀들(412)의 행에 대한 혹은 입력 오브젝트 픽셀들(428)을 갖는 현재 입력 픽셀들(412)에 수직적으로 인접한 일단의 행들에 대한 영상 픽셀 깊이(418)의 최대 값을 뜻한다. 깊이 가중치 모듈(802)는 현재 입력 픽셀들(412)과 입력 오브젝트 픽셀들(428) 각각에 대한 영상 픽셀 깊이(418)를 확인할 수 있으며, 행 최대 깊이(816)을 특정 행에 대한 영상 픽셀 깊이(418)의 최대 값으로 판단할 수 있다. 이와 유사하게, 각각 입력 오브젝트 픽셀들(428)을 갖는 수직적으로 인접한 행들의 수에 있어서, 깊이 가중치 모듈(802)는 현재 입력 픽셀들(412)와 입력 오브젝트 픽셀들(428) 각각에 대한 영상 픽셀 깊이(418)를 확인할 수 있으며 행 최대 깊이(816)을 영상 픽셀 깊이(418)의 최대값이라고 판단할 수 있다.The row maximum depth 816 includes the image pixel depth 418 for a row of the current input pixels 412 or for a set of rows vertically adjacent to the current input pixels 412 with the input object pixels 428, Of the maximum value. The depth weighting module 802 can identify the image pixel depth 418 for each of the current input pixels 412 and the input object pixels 428 and adjusts the row maximum depth 816 to the image pixel depth It can be determined that the maximum value of the reference value 418 is zero. Similarly, for the number of vertically adjacent rows, each with input object pixels 428, the depth weight module 802 determines whether the current input pixels 412 and the input object pixels 428, The depth 418 can be identified and the row maximum depth 816 can be determined as the maximum value of the image pixel depth 418. [

행 최대 깊이(816)의 예는 도 7에 도시될 수 있다. 깊이 가중치 모듈(802)는 입력 오브젝트 픽셀들(428)을 갖는 단일 행에 대한 행 최대 깊이(816)을 계산할 수 있다. 예컨대, 두 번째 행의 행 최대 깊이(816)는 9일 수 있고, 세 번째 행의 행 최대 깊이(816)는 8일 수 있고, 다섯 번째 행의 행 최대 깊이(816)은 4일 수 있고, 여섯 번째 행 최대 깊이(816)은 3일 수 있다. 이와 유사하게, 깊이 가중치 모듈 (802)는 입력 오브젝트 픽셀들(428)을 갖는 인접 행들에 대한 행 최대 깊이를 계산할 수 있다. 예컨대, 두 번째와 세 번째 행들의 행 최대 깊이(816)은 9일 수 있으며 다섯 번째와 여섯 번째 행들의 행 최대 깊이(816)은 4일 수 있다.An example of the row maximum depth 816 can be shown in FIG. The depth weight module 802 may calculate a row maximum depth 816 for a single row with input object pixels 428. [ For example, the row maximum depth 816 of the second row may be 9, the row maximum depth 816 of the third row may be 8, the row maximum depth 816 of the fifth row may be 4, The sixth row maximum depth 816 may be three. Similarly, the depth weight module 802 may calculate the row maximum depth for adjacent rows with input object pixels 428. [ For example, the row maximum depth 816 of the second and third rows may be nine and the row maximum depth 816 of the fifth and sixth rows may be four.

로컬 깊이(local depth) 818은 일단의 픽셀 행들 사이의 최대 픽셀 깊이를 뜻한다. 깊이 가중치 모듈 802는 로컬 깊이 모듈 828을 이용하여 로컬 깊이 818을 계산할 수 있다. 로컬 깊이 모듈 828의 기능은 이후 자세히 설명될 것이다.The local depth 818 represents the maximum pixel depth between a set of pixel rows. The depth-weighting module 802 may calculate the local depth 818 using the local depth module 828. The function of the local depth module 828 will be described in detail later.

깊이 가중치 모듈 802는 고정 깊이 808을 포함하는 깊이 후보 806, 영상 최대 깊이 810, 순간 최대 깊이 812, 행 평균 깊이 814 그리고 로컬 깊이 818의 가중치 평균 값으로 깊이 가중치 804를 계산할 수 있다. 바람직하게는, 가중치 깊이 804에 있어서, 50%~75%는 영상 픽셀 깊이 418로 표시될 수 있고, 0%~7%는 행 평균 깊이 814로 표시될 수 있고, 9%~25%는 영상 최대 깊이 810 혹은 순간 최대 깊이 812로 표시될 수 있고, 9%~25%는 로컬 깊이 818로 표시될 수 있다.The depth weight module 802 can calculate the depth weight 804 as a weighted average value of the depth candidate 806 including the fixed depth 808, the image maximum depth 810, the instantaneous maximum depth 812, the row average depth 814, and the local depth 818. Preferably, 50% to 75% at the weighted depth 804 may be represented by the image pixel depth 418, 0% to 7% may be represented by the row average depth 814, 9% to 25% Depth 810 or instantaneous maximum depth 812, and 9% to 25% can be expressed as local depth 818

오브젝트 깊이 모듈 434는 선택에 따라 가중치 조정 모듈 830을 포함할 수 있다. 가중치 조정 모듈 830은 오브젝트 픽셀 위치 832, 오브젝트 픽셀 속성 834 혹은 이들의 조합을 기반으로 픽셀 깊이를 계산하는데 사용되었던 팩터(factor)들의 가중치를 조정하는 역할을 한다. The object depth module 434 may optionally include a weight adjustment module 830. The weight adjustment module 830 adjusts the weight of the factors used to calculate the pixel depth based on the object pixel position 832, the object pixel property 834, or a combination thereof.

오브젝트 픽셀 위치 832는 현재 입력 영상 406 안 입력 오브젝트 픽셀들의 위치를 뜻한다. 예컨대, 오브젝트 픽셀 위치 832는 현재 입력 영상 406 혹은 영상의 일반적인 부분 예컨대, 현재 입력 영상 406의 바닥, 중앙, 코너와 같은 부분들 내 특정 좌표일 수 있다. 또 다른 예를 들자면, 오브젝트 픽셀 위치 832는 현재 입력 영상 406의 바닥 중심 혹은 왼쪽 위쪽 코너처럼 입력 오브젝트 430의 일반적인 부분과 관련되어 있을 수 있다.The object pixel position 832 indicates the position of the input object pixels in the current input image 406. For example, the object pixel position 832 may be a specific coordinate within the current input image 406 or a general portion of the image, such as the bottom, center, or corner of the current input image 406. As another example, the object pixel position 832 may be associated with a common portion of the input object 430, such as the bottom center or upper left corner of the current input image 406.

오브젝트 픽셀 속성 834은 특정 색깔이나 휘도의 레벨처럼 입력 오브젝트 430과 일반적으로 관련된 속성을 뜻한다. 예컨대, 자막 문구를 나타내는 입력 오브젝트 430과 일반적으로 관련된 오브젝트 픽셀 속성 834은 흰색 혹은 밝은 노란색과 같은 색깔들 혹은 현재 입력 영상 406의 인접 부분보다 밝은 휘도 레벨이다. 또 다른 예에서, 오브젝트 픽셀 속성 834는 스코어보드(scoreboard)의 보더(boarder)와 같은 기능일 수 있다.The object pixel attribute 834 refers to an attribute generally associated with the input object 430, such as a particular color or level of brightness. For example, an object pixel attribute 834 generally associated with an input object 430 representing a caption phrase is a color such as white or light yellow or a luminance level brighter than the adjacent portion of the current input image 406. In another example, the object pixel attribute 834 may be the same as the boarder of the scoreboard.

가중치 조정 모듈 830은 깊이 가중치 804를 조정하여, 오브젝트 픽셀 위치 832와 오브젝트 픽셀 속성 834에 기반해 입력 오브젝트 픽셀들 428의 지각 깊이 211을 높이거나 낮출 수 있다. 예컨대, 가중치 조정 모듈 830이 오브젝트 픽셀 위치 832와 오브젝트 픽셀 속성 834를 입력 오브젝트 430과 일반적으로 관계하고 있다고 지각할 경우, 가중치 조정 모듈 830은 깊이 가중치 840을 조정해서 지각 깊이 211을 높여 현재 오브젝트 영상 406으로부터 입력 오브젝트 430을 구별할 수 있다. 구체적 예를 들자면, 가중치 조정 모듈 830은 깊이 가중치 804가 50%의 영상 픽셀 깊이 418, 0%의 행 평균 깊이 814, 25%의 영상 최대 깊이 810 그리고 25%의 로컬 깊이 818가 되도록 깊이 가중치 804를 조정하여, 현재 입력 영상 406으로부터 입력 오브젝트 430을 구별할 수 있다.The weight adjustment module 830 may adjust the depth weight 804 to raise or lower the perception depth 211 of the input object pixels 428 based on the object pixel position 832 and the object pixel attribute 834. [ For example, if the weight adjustment module 830 perceives that the object pixel position 832 and the object pixel property 834 are generally related to the input object 430, the weight adjustment module 830 adjusts the depth weight 840 to increase the perception depth 211 to obtain the current object image 406 It is possible to distinguish the input object 430 from the input object 430. For example, the weight adjustment module 830 adjusts the depth weight 804 so that the depth weight 804 is 50% the video pixel depth 418, 0% the row average depth 814, 25% the video maximum depth 810, and 25% So that the input object 430 can be distinguished from the current input image 406.

또 다른 예에서, 가중치 조정 모듈 830이 상기의 오브젝트 픽셀 위치 832와 오브젝트 픽셀 속성 834가 입력 오브젝트 430과 일반적으로 연관되지 않는다고 지각할 경우, 가중치 조정 모듈 830은 깊이 가중치 804를 조정하여 지각 깊이 211을 줄이거나 혹은 입력 오브젝트 430을 현재 입력 영상 406에 혼합할 수 있다. 구체적 예를 들자면, 입력 오브젝트 430과 일반적으로 연관되지 않은 오브젝트 픽셀 위치 832는 현재 입력 영상 406의 중심에 올 수 있다. 또 다른 구체적 예를 들자면, 가중치 조정 모듈 830은 영상 픽셀 깊이 418은 75%, 행 평균 깊이 814는 7%, 영상 최대 깊이 810은 9% 그리고 로컬 깊이 818은 9%가 되도록 깊이 가중치 804를 조정하여 입력 오브젝트 430을 현재 입력 영상 406에 혼합할 수 있다.In another example, if the weight adjustment module 830 perceives that the object pixel position 832 and the object pixel property 834 are not generally associated with the input object 430, the weight adjustment module 830 adjusts the depth weight 804 to adjust the perception depth 211 Or may blend the input object 430 into the current input image 406. For example, the object pixel position 832, which is not generally associated with the input object 430, may be at the center of the current input image 406. In another specific example, the weight adjustment module 830 adjusts the depth weight 804 such that the image pixel depth 418 is 75%, the row average depth 814 is 7%, the maximum image depth 810 is 9%, and the local depth 818 is 9% The input object 430 may be mixed with the current input image 406. [

또 다른 예를 들자면, 가중치 조정 모듈 830은 로컬 순간 모션 426을 갖는 입력 오브젝트 픽셀들 428에 대한 깊이 가중치 804를 조정할 수 있다. 구체적 예를 들자면, 깊이 가중치 804는 영상 픽셀 깊이 418의 가중치은 최소화하고 영상 최대 깊이 810의 가중치은 최대화되도록 조정될 수 있다. 또 다른 구체적 예를 들자면, 깊이 가중치 804는 0%의 영상 픽셀 깊이 418, 75%의 영상 최대 깊이 810 그리고 25%의 로컬 깊이 818일 수 있다.As another example, the weight adjustment module 830 may adjust the depth weight 804 for the input object pixels 428 with the local moment motion 426. For example, the depth weight 804 may be adjusted such that the weight of the image pixel depth 418 is minimized and the weight of the image maximum depth 810 is maximized. In another specific example, depth weight 804 may be 0% video pixel depth 418, 75% video maximum depth 810, and 25% local depth 818.

오브젝트 깊이 모듈 434는 입력 오브젝트 픽셀들 428에 대응되는 영상 픽셀 깊이 418와 입력 오브젝트 픽셀들 428에 대한 깊이 가중치 804을 곱하여 오브젝트 픽셀 깊이 436을 계산할 수 있다.The object depth module 434 may calculate the object pixel depth 436 by multiplying the image pixel depth 418 corresponding to the input object pixels 428 and the depth weight 804 for the input object pixels 428.

본 발명은 처리 오브젝트 214와 처리 영상 212간의 깊이 차이(disparity)가 줄어든 디스플레이 시스템 100을 제공한다는 것이 밝혀졌다. 깊이 후보 806의 가중치 평균값을 계산한 값인 깊이 가중치 804은 오브젝트 픽셀 깊이 436을 계산하는 데 쓰일 수 있으며 처리 영상 212과의 깊이 차이가 줄어든 처리 오브젝트 214를 생성해 내기 위해 입력 오브젝트 430로 인가될 수 있다.It has been found that the present invention provides a display system 100 with reduced disparity between the processing object 214 and the processing image 212. The depth weight 804, which is a value obtained by calculating the weighted average value of the depth candidates 806, may be used to calculate the object pixel depth 436 and may be applied to the input object 430 to generate a processing object 214 with a reduced depth difference from the processing image 212 .

처리 영상 212 디스플레이의 물리적 변형은 실제 세계에서 게임을 하거나 3D 영상을 시청할 때 처리 영상 212에 대해 반응한 사람들의 움직임과 같은 움직임을 유발할 수 있다. 제 1 디스플레이 인터페이스 330은 제 1 디바이스 102상의 픽셀들을 조작함으로써 처리 영상 212을 디스플레이 할 수 있으며, 그로 인해 현실 세계의 움직임을 유발한다.Processed video 212 The physical transformation of the display can cause motion, such as the motion of people reacting to the processed video 212 when playing a game or viewing a 3D video in the real world. The first display interface 330 can display the processed image 212 by manipulating pixels on the first device 102, thereby causing motion in the real world.

디스플레이 시스템 100은 도 1의 제 1 디바이스 102 상이나 도 1의 제 2 디바이스 106 상 혹은 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치하여 실행될 수 있다. 예컨대, 도 3의 제 2 저장부 346은 오브젝트 픽셀 위치 832를 저장할 수 있으며 제 1 제어부 312는 가중치 조정 모듈 830을 실행할 수 있다.The display system 100 may be implemented on the first device 102 of FIG. 1 or on the second device 106 of FIG. 1 or between the first device 102 and the second device 106. For example, the second storage unit 346 of FIG. 3 may store the object pixel position 832 and the first control unit 312 may execute the weight adjustment module 830.

디스플레이 시스템 100은 예를 들어 모듈 기능들 혹은 명령을 설명하고 있다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 깊이 가중치 모듈 802, 로컬 깊이 모듈 828 그리고 행 평균 깊이 모듈 820을 포함할 수 있으며 제 1 저장부 314는 가중치 조정 모듈 830을 포함할 수 있다. 각각의 모듈들은 다른 모듈들과 별개로 독립적으로 작동할 수 있다.Display system 100 describes, for example, module functions or commands. Modules can be partitioned differently. For example, the first control unit 312 may include a depth weight module 802, a local depth module 828, and a row average depth module 820, and the first storage unit 314 may include a weight adjustment module 830. Each module can operate independently of the other modules.

또한, 한 모듈에서 생성된 데이터는 서로 직접 연결되어 있지 않아도 다른 모듈이 사용할 수 있다. 예컨대, 가중치 조정 모듈 830은 영상 픽셀 깊이 418을 수신할 수 있다. In addition, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the weight adjustment module 830 may receive the image pixel depth 418.

도 9는 로컬 깊이 모듈 828의 도면이다. 로컬 깊이 모듈 828은 행 합 모듈(row sum module) 902, 이진 변환 모듈(binary conversion module) 904, 최대 필터 모듈(maximum filter module) 906, 행 깊이 그룹 모듈(row depth group module) 908, 그룹 최대 모듈(group maximum module) 910, 그리고 균일 깊이 모듈(uniform depth module) 912을 이용하여 로컬 깊이 818을 계산할 수 있다.9 is a diagram of the local depth module 828. FIG. The local depth module 828 includes a row sum module 902, a binary conversion module 904, a maximum filter module 906, a row depth group module 908, a group maximum module 910, and a uniform depth module 912 can be used to compute a local depth 818.

행 합 모듈 902은 한 영상 픽셀들의 각각의 행에 관련하여, 오브젝트를 나타내는 픽셀들의 개수를 합하는 역할을 한다. 행 합 모듈 902는 오브젝트 행 합 914를 계산할 수 있다. 오브젝트 행 합 914는 현재 입력 픽셀들 412의 특정 행 안에 있는 입력 오브젝트 픽셀들 428의 총 개수를 뜻한다. 예컨대, 입력 오브젝트 픽셀들 428의 행이 5 개의 입력 오브젝트 픽셀들 428을 포함할 경우, 행 합 모듈 902는 오브젝트 행 합 914를 5로 계산할 수 있다. 행 합 모듈 902는 현재 입력 영상 406 속 현재 입력 픽셀들 412 각각의 행에 대한 오브젝트 행 합 914를 계산할 수 있다.An addition module 902 is operative to sum the number of pixels representing an object with respect to each row of image pixels. The conjunction module 902 may calculate an object row sum 914. The object row sum 914 indicates the total number of input object pixels 428 in a particular row of the current input pixels 412. For example, if the row of input object pixels 428 includes five input object pixels 428, the row summing module 902 may calculate the object row sum 914 as five. The combining module 902 may calculate an object row sum 914 for each row of the current input pixels 412 in the current input image 406.

이진 변환 모듈 904는 픽셀들의 특정 행에 대한 픽셀 카운트(pixel count)를 나타내는 값을 이진(binary) 값으로 변환하는 역할을 한다. 이진 변환 모듈 904는 이진 임계값(binary threshold) 916을 근거로 오브젝트 행 합 914을 현재 입력 영상 406 속 현재 입력 픽셀들 412의 각 행에 대한 이진 행 값 916으로 변환할 수 있다. 이진 행 값 916은 행이 오브젝트를 나타내는 픽셀을 포함하고 있는지에 대한 이진 측정 값을 뜻한다.The binary conversion module 904 converts a value representing a pixel count for a specific row of pixels into a binary value. The binary conversion module 904 may convert the object row sum 914 to a binary row value 916 for each row of the current input pixels 406 based on a binary threshold 916. [ Binary row value 916 is a binary measure of whether a row contains pixels representing an object.

이진 임계값 917은 픽셀 행 안에 오브젝트를 나타내기 위한 충분한 픽셀들이 있는지를 판단하기 위한 임계값을 뜻한다. 이진 임계값 917은 현재 입력 픽셀들 412의 한 행에 위치한 입력 오브젝트 픽셀들 428의 총 개수에 대한 퍼센티지에 근거해 판단될 수 있다. 예컨대, 이진 임계값 917은 현재 입력 픽셀들 412의 행에 있는 입력 오브젝트 픽셀들 428의 총 개수의 4%로 판단될 수 있다. 구체적인 예를 들자면, 현재 입력 픽셀들 412의 행이 값이 480인 오브젝트 행 합 914을 갖는 경우, 이진 임계값 917은 480의 약 4%에 해당하는 19로 계산될 수 있다.The binary threshold 917 is a threshold for determining if there are enough pixels to represent an object in a pixel row. The binary threshold 917 may be determined based on the percentage of the total number of input object pixels 428 located in one row of the current input pixels 412. For example, the binary threshold 917 may be determined to be 4% of the total number of input object pixels 428 in the row of current input pixels 412. As a specific example, if the row of the current input pixels 412 has an object row sum 914 with a value of 480, then the binary threshold 917 may be computed as 19, corresponding to about 4% of 480.

이진 변환 모듈 904는 오브젝트 행 합 914를 이진 임계값 917과 비교하여 이진 행 값 916을 계산할 수 있다. 예컨대, 현재 입력 픽셀들 412의 한 행에 대한 오브젝트 행 합 914이 이진 임계값 917보다 클 경우, 이진 변환 모듈 904는 상기 특정 행에 대한 이진 행 값 916을 1로 설정할 수 있다. 이와는 반대로, 현재 입력 픽셀들 412의 한 행에 대한 오브젝트 행 합 914가 이진 임계값 917보다 작을 경우, 이진 변환 모듈 904는 상기 특정 행에 대한 이진 행 값 916을 0으로 설정할 수 있다.The binary conversion module 904 can compute the binary row value 916 by comparing the object row sum 914 with the binary threshold value 917. For example, if the object row sum 914 for one row of current input pixels 412 is greater than the binary threshold 917, the binary conversion module 904 may set the binary row value 916 for the particular row to one. Conversely, if the object row sum 914 for one row of the current input pixels 412 is less than the binary threshold 917, then the binary conversion module 904 may set the binary row value 916 for that particular row to zero.

최대 필터 모듈 906은 이진 값이 0인 픽셀 행들을 필터링 해 제거하는 역할을 한다. 최대 필터 모듈 906은 이진 행 값 916을 근거로 이진 행 그룹 918을 생성할 수 있다. 이진 행 그룹 918은 이진 행 값을 1로 갖는, 현재 입력 픽셀들 412에 수직적으로 인접한 일단의 행들을 뜻한다.The maximum filter module 906 serves to filter and remove pixel rows with a binary value of zero. The maximum filter module 906 may generate a binary row group 918 based on the binary row value 916. [ Binary row group 918 refers to a set of rows vertically adjacent to the current input pixels 412 with a binary row value of one.

최대 필터 모듈 906은 이진 행 값 916이 0인, 현재 입력 픽셀들의 행들을 필터링 해 제거함으로써 이진 행 그룹 918을 생성할 수 있으며 이때, 이진 행 값 916이 0인 행들은 이진 행 값 916이 1인 현재 입력 픽셀들의 좁게 배열된 행들 사이에 위치해 있다.The maximum filter module 906 may generate a binary row group 918 by filtering and removing the rows of the current input pixels, where the binary row value 916 is 0, where the rows with a binary row value 916 of 0 are binary row values 916 of 1 Lt; / RTI > is located between narrowly arranged rows of current input pixels.

예를 들어, 최대 필터 모듈 906은 두 가지 조건이 부합되는지 판단할 수 있다. 첫째, 이진 행 값 916이 0인, 현재 입력 픽셀들 412에 수직적으로 인접한 일련의 행들이 이진 행 값 916이 1인, 현재 입력 픽셀들 412에 수직적으로 인접한 일련의 행들 사이에 위치한다. 둘째, 이진 행 값 916이 1인 수직적으로 인접한 행들의 수는 이진 행 값 916이 0인 수직적으로 인접한 행들의 수보다 커야 한다. For example, the maximum filter module 906 can determine if two conditions are met. First, a series of rows vertically adjacent to the current input pixels 412, where the binary row value 916 is 0, is located between the series of rows vertically adjacent to the current input pixels 412, where the binary row value 916 is 1. Second, the number of vertically adjacent rows with binary row value 916 equal to 1 should be greater than the number of vertically adjacent rows with binary row value 916 equal to zero.

로컬 깊이 모듈 828은 행 평균 깊이 모듈 820을 활용하여 현재 입력 영상 406 속 현재 입력 픽셀들 412의 각 행에 대한 단일 행 깊이 920을 계산할 수 있다. 단일 행 깊이 920은 현재 입력 영상 406 행에 위치하고 있는 모든 현재 입력 픽셀들 412의 영상 픽셀 깊이 418의 평균 값을 뜻한다. 로컬 깊이 모듈 828은 그룹 팩터 K가 0인 상기 수학식(1)에 따라 단일 행 깊이 920을 계산할 수 있다.The local depth module 828 may utilize the row average depth module 820 to compute a single row depth 920 for each row of the current input pixels 412 in the current input image 406. The single row depth 920 represents the average value of the image pixel depth 418 of all the current input pixels 412 located in the current input image 406 row. The local depth module 828 may compute a single row depth 920 according to Equation (1) with the group factor K being zero.

로컬 깊이 모듈 828은 행 깊이 그룹 모듈 908을 이용하여 단일 행 깊이 920에 근거한 행 깊이 그룹 922(row depth group)과 이진 행 값 916을 식별할 수 있다. 행 깊이 그룹 922는 연속적으로 인접한 일련의 픽셀 행들을 뜻한다. 연속적으로 인접한 픽셀 행들은 중간에 틈을 갖지 않은 행들이다. 예컨대, 한 영상의 첫 번째, 두 번째, 세 번째 픽셀 행들은 연속적으로 인접한 행들일 수 있다. 이와는 반대로, 첫 번째, 세 번째, 다섯 번째 행들은 연속적인 행들일 수 없는데, 두 번째와 네 번째 행들이 일련의 행들 사이에서 틈을 형성하기 때문이다.The local depth module 828 can use the row depth group module 908 to identify a row depth group 922 and a row row value 916 based on a single row depth 920. [ A row depth group 922 refers to a series of successive pixel rows that are contiguous. Successive adjacent pixel rows are those that do not have a gap in the middle. For example, the first, second, and third pixel rows of an image may be consecutively adjacent rows. Conversely, the first, third, and fifth rows can not be consecutive rows because the second and fourth rows form a gap between a series of rows.

행 깊이 그룹 모듈 908은 단일 행 깊이 920에 현재 입력 픽셀들 412의 각 행들에 대한 이진 행 값 916를 곱하여 행 깊이 그룹 922을 식별할 수 있다. 곱셈 이후, 0 이 아닌 값을 갖는 현재 입력 픽셀들 412의 연속적인 인접 행들을 그룹으로 묶을 수 있다. 예컨대, 단일 행 깊이 920에 각 행에 대한 이진 행 값 916을 곱한 이후 두 개 이상의 현재 입력 픽셀들 412의 행이 0 이 아닌 값을 가질 경우, 행 깊이 그룹 모듈 908은 행 깊이 그룹 922를 식별할 수 있다.The row depth grouping module 908 may identify the row depth group 922 by multiplying the single row depth 920 by the binary row value 916 for each row of the current input pixels 412. [ After the multiplication, successive adjacent rows of the current input pixels 412 having non-zero values can be grouped. For example, if a row of two or more current input pixels 412 has a nonzero value after multiplying a single row depth 920 by a binary row value 916 for each row, the row depth grouping module 908 identifies the row depth group 922 .

로컬 깊이 모듈 828은 그룹 최대 모듈 910을 이용하여 행 깊이 그룹 922의 그룹 최대 깊이 924를 판단할 수 있다. 그룹 최대 모듈 910은 그룹 최대 깊이 914를 행 깊이 그룹 922의 단일 행 깊이 920에 대한 최대값과 동일시함으로써 행 깊이 그룹 922에 대한 그룹 최대 깊이 924를 판단할 수 있다. 로컬 깊이 818은 현재 입력 픽셀들 412의 수직적으로 그룹화된 행들에 대한 그룹 최대 깊이 924일 수 있다. The local depth module 828 may use the group max module 910 to determine the group maximum depth 924 of the row depth group 922. [ The group maximum module 910 can determine the group maximum depth 924 for the row depth group 922 by identifying the group maximum depth 914 with the maximum value for the single row depth 920 of the row depth group 922. [ The local depth 818 may be the group maximum depth 924 for the vertically grouped rows of the current input pixels 412.

로컬 깊이 모듈 828은 균일 깊이 모듈 912를 이용하여 로컬 깊이 818을 판단할 수 있다. 균일 깊이 모듈 912는 한 그룹 내 픽셀들의 모든 행에 대해 균일한 깊이 값을 지정하는 역할을 한다. 균일 깊이 모듈 912는 행 깊이 그룹 922의 각 행에 있는 모든 현재 입력 픽셀들 412에 대한 로컬 깊이 818을 그룹 최대 깊이 924로 지정할 수 있다. 예컨대, 로컬 깊이 818은 현재 입력 픽셀들 412의 수직적으로 그룹화 된 행들에 대한 그룹 최대 깊이 924 일 수 있다. 균일 깊이 모듈 912는 현재 입력 영상 406의 행 깊이 그룹 922 각각에 대한 로컬 깊이 818을 지정할 수 있다.The local depth module 828 can determine the local depth 818 using the uniform depth module 912. The uniform depth module 912 serves to specify a uniform depth value for all rows of pixels within a group. The uniform depth module 912 may specify a local depth 818 for all current input pixels 412 in each row of the row depth group 922 to a group maximum depth 924. [ For example, the local depth 818 may be the group maximum depth 924 for the vertically grouped rows of the current input pixels 412. The uniform depth module 912 may specify a local depth 818 for each of the row depth groups 922 of the current input image 406.

디스플레이 시스템 100은 도 1의 제 1 디바이스 102 상에 혹은 도 1의 제 2 디바이스 106 상 아니면 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치하여 실행될 수 있다. 예컨대, 도 3의 제 2 제어부 334는 행 합 모듈 902를 실행할 수 있으며 제 1 제어부 312는 이진 변환 모듈 904를 실행할 수 있다.The display system 100 may be implemented on the first device 102 of FIG. 1 or on the second device 106 of FIG. 1, or between the first device 102 and the second device 106. For example, the second controller 334 of FIG. 3 may execute the summing module 902 and the first controller 312 may execute the binary conversion module 904.

디스플레이 시스템 100은 모듈의 기능들이나 명령을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 행 합 모듈 902, 이진 변환 모듈 904, 최대 필터 모듈 906을 포함할 수 있으며 제 1 제장부 314는 행 깊이 그룹 모듈 908, 그룹 최대 모듈 910, 균일 깊이 모듈 912를 포함할 수 있다. 각각의 모듈들은 다른 모듈들과 별개로 독립적으로 작동할 수 있다.The display system 100 exemplifies the functions or commands of the module. Modules can be partitioned differently. For example, the first controller 312 may include a row summing module 902, a binary transforming module 904, a maximum filter module 906, and the first threading 314 may include a row depth grouping module 908, a grouping maximum module 910, a uniform depth module 912 . Each module can operate independently of the other modules.

더 나아가, 한 모듈에서 생성된 데이터는 서로 직접 연결되지는 않았더라도 다른 모듈이 사용할 수 있다. 예컨대, 그룹 최대 모듈 910은 영상 픽셀 깊이 418을 수신할 수 있다.Furthermore, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the group max module 910 may receive the image pixel depth 418.

도 10은 현재 입력 영상 406의 예시이다. 현재 입력 영상 406은 입력 오브젝트 픽셀들 428을 갖는 행들을 포함하며 이 행들은 점선으로 그려진 부분들로 나타나 있다. 하얀색 부분들은 현재 입력 픽셀들 412이다. 예컨대, 입력 오브젝트 픽셀들 428은 현재 입력 영상 406의 자막이나 다른 유형의 문자들을 나타낼 수 있다.10 is an illustration of the current input image 406. [ The current input image 406 includes rows with input object pixels 428, which are depicted as dashed lines. The white portions are currently input pixels 412. For example, input object pixels 428 may represent subtitles or other types of characters in the current input image 406.

도 11은 행 합 모듈 902의 예시이다. 행 합 모듈 902는 오브젝트 행 합 914를 계산할 수 있으며, 오브젝트 행 합914은 도 10의 현재 입력 픽셀들 412의 각 행들 안에 있는 도 10의 입력 오브젝트 픽셀들 428의 총 합을 뜻하고 점선으로 그려진 지역으로 차트 1102 상에 나타나 있다. 차트 1402의 X축은 현재 입력 영상 406의 행들에 대응한다. 차트 1402의 Y축은 입력 오브젝트 픽셀428의 개수에 대한 참조가 될 수 있다.11 is an example of a row summing module 902. Fig. Arrangement module 902 may calculate an object row sum 914, which represents the total sum of input object pixels 428 in FIG. 10 within each row of current input pixels 412 in FIG. 10, On the chart 1102. FIG. The X-axis of the chart 1402 corresponds to the rows of the current input image 406. The Y axis of the chart 1402 may be a reference to the number of input object pixels 428.

도 12는 이진 변환 모듈904 일 예를 보여주고 있다. 이진 변환 모듈 904는 도 11의 오브젝트 행 합 914를 도 10의 현재 입력 픽셀 412의 각 행에 대한 이진 행 값 916으로 변경할 수 있고, 이러한 내용은 차트 1202의 점선 영역에 나타나 있다. 차트 1202의 x축은 도 10의 현재 입력 영상 406에 행들에 대응한다. 차트 1202의 y축은 이진 행 값 916에 대한 참조가 된다. FIG. 12 shows an example of the binary conversion module 904. Binarization module 904 may change the object row sum 914 of FIG. 11 to a binary row value 916 for each row of the current input pixel 412 of FIG. 10, which is shown in the dashed area of the chart 1202. The x-axis of the chart 1202 corresponds to the rows in the current input image 406 of Fig. The y-axis of the chart 1202 is a reference to the binary row value 916.

예를 들면, 차트1202는 왼쪽 일부에 1의 값을 갖는 하나의 이진 행과, 0의 값 916을 갖는 세개의 이진 행, 4개의 행으로 이루어진 제1그룹 1204를 묘사하고 있다. 제1그룹 1204에 0값을 갖는 이진 행은 1의 값을 갖는 이진 행을 갖는 현재 입력 픽셀 412의 근접하여 위치한 행들에 대응된다. 유사하게, 추가적인 실시 예로 차트 1202는 오른쪽을 따라서 1의 값을 갖는 이진 행을 갖는 두 개의 행과 0의 값을 갖는 이진 행을 갖는 하나의 행을 묘사하고 있다. For example, a chart 1202 depicts a first group 1204 of four rows, one binary row with a value of 1 in the left portion, three binary rows with a value 916 of zero, and four rows. A binary row having a value of 0 in the first group 1204 corresponds to closely located rows of the current input pixel 412 with a binary row having a value of 1. [ Similarly, in a further embodiment chart 1202 depicts two rows with binary rows having a value of one along the right and one row with binary rows having a value of zero.

도 13은 최대 필터 모듈 906의 일 실시 예를 도시하고 있다. 최대 필터 모듈 906은 차트 13O2의 점선 부분에 묘사된 것처럼 이진 행 그룹 918을 생성할 수 있다. 최대 필터 모듈 960은 도 12에 보여지는 이진 행 그룹 918을 생성하기 위해 1의 값을 갖는 이진 행을 갖는 현재 입력 픽셀의 근접 위치한 행들 사이에 위치하는 0의 이진 행 값을 갖는 현재 입력 픽셀의 행들을 필터링하여 제거할 수 있다. 차트 1302의 X축은 도 10의 현재 입력 영상 406에 있는 행들에 대응된다. 차트 1302의 Y축은 이진 행 916값에 대한 참조가 된다. FIG. 13 illustrates one embodiment of a maximum filter module 906. The maximum filter module 906 may generate a binary row group 918 as depicted in the dotted line portion of chart 1302. The maximum filter module 960 includes a row of current input pixels having a binary row value of zero located between closely located rows of the current input pixel with a binary row having a value of one to produce the binary row group 918 shown in FIG. Can be removed by filtering. The X-axis of the chart 1302 corresponds to the rows in the current input image 406 of FIG. The Y-axis of the chart 1302 becomes a reference to the binary row 916 value.

예컨대, 차트 1302는 왼쪽 부분을 따라 이진 행 그룹 918의 제1그룹 1304를 묘사하고 있다. 유사하게 추가적인 실시 예로, 차트 1302는 오른쪽 부분에 이진 행 그룹 918의 제2그룹 1306을 묘사하고 있다. For example, a chart 1302 depicts a first group 1304 of binary row groups 918 along the left portion. Similarly, in a further embodiment, chart 1302 depicts a second group 1306 of binary row groups 918 on the right hand side.

도 14는 행 평균 깊이 모듈 820의 예를 도시하고 있다. 행 평균 깊이 모듈 820은 차트 1402에 도시된 것처럼 도 10의 현재 입력 영상 406에 있는 현재 입력 픽셀의 각 행에 대한 단일 행 깊이 920을 계산할 수 있다. 차트 1402의 커브1404는 현재 입력 영상 406의 현재 입력 픽셀 412의 각 행에 대한 단일 행 깊이 920을 나타낸다. 차트 14O2의 X축은 현재 입력 영상 406에 있는 행들에 대응된다. 차트 1402의 Y축은 단일 행 깊이 920에 대한 참조가 된다. FIG. 14 shows an example of a row average depth module 820. The row average depth module 820 may calculate a single row depth 920 for each row of the current input pixel in the current input image 406 of FIG. Curve 1404 of chart 1402 represents a single row depth 920 for each row of the current input pixel 412 of the current input image 406. The X-axis of the chart 1402 corresponds to the rows in the current input image 406. [ The Y-axis of the chart 1402 is a reference to a single row depth 920.

도 15는 행 깊이 그룹 모듈 908의 예시이다. 도 14의 단일 행 깊이 920를 차트 1502에 그려져 있는 도 10의 현재 입력 영상 412의 각 행들에 대한 도 13의 이진 행 값에 곱하여 행 깊이 그룹 모듈 908은 행 깊이 그룹 922를 생성할 수 있다. 차트 1502의 X축은 현재 입력 영상 406의 행에 해당한다. 차트 1502의 Y축은 단일 행 깊이 920의 참조 정보이다.FIG. 15 is an illustration of a row depth group module 908. The single row depth 920 of FIG. 14 may be multiplied by the binary row value of FIG. 13 for each row of the current input image 412 of FIG. 10 depicted in chart 1502 to generate a row depth grouping 922. The X-axis of the chart 1502 corresponds to the row of the current input image 406. [ The Y-axis of the chart 1502 is the reference information of the single-row depth 920.

곱셈 이후 행 깊이 그룹 모듈 908은 0 이 아닌 값을 갖는 현재 입력 픽셀들 412의 연속적으로 인접한 행들을 그룹화하여 행 깊이 그룹 922를 생성한다. 예컨대, 차트 1502는 왼쪽 영역을 따라 행 깊이 그룹 922의 첫 번째 그룹 1504을 묘사하고 있다. 이와 유사하게, 또 다른 예에서는, 차트 1502는 차트의 오른쪽 영역을 따라 행 깊이 그룹 922의 두번째 그룹 1506을 묘사하고 있다.The multiplication after row depth group module 908 groups consecutive adjacent rows of current input pixels 412 having a non-zero value to generate a row depth group 922. For example, a chart 1502 depicts the first group 1504 of row depth groups 922 along the left region. Similarly, in another example, chart 1502 depicts a second group 1506 of row depth groups 922 along the right region of the chart.

도 16은 그룹 최대 모듈 910의 예시이다. 그룹 최대 모듈 910은 그룹 최대깊이 924를 차트 1602에 그려져 있는 행 깊이 그룹 922 내 도 14의 단일 행 깊이 920의 최대값과 동일시하여, 행 깊이 그룹 922의 그룹 최대 깊이 924를 결정할 수 있다. 차트 1602의 X축은 도 10의 현재 입력 영상 406의 행들에 대응한다. 차트 1602의 Y축은 단일 행 깊이 920의 참조 정보이다.FIG. 16 is an illustration of a group max module 910. The group maximum module 910 can determine the group maximum depth 924 of the row depth group 922 by equating the group maximum depth 924 with the maximum value of the single row depth 920 of FIG. 14 in the row depth group 922 depicted in the chart 1602. [ The X-axis of the chart 1602 corresponds to the rows of the current input image 406 of FIG. The Y axis of the chart 1602 is the reference information of the single row depth 920.

예컨대, 차트 1602는 왼쪽 부분을 따라 그룹 최대 깊이 924의 첫번째 값 1608을 갖는 행 깊이 그룹 922의 제1그룹 1604를 묘사하고 있다. 유사하게, 추가적인 예로 차트의 오른쪽 부분을 따라 그룹 최대 깊이 924의 두번째 값을 갖는 행 깊이 그룹 922의 제2그룹 1606를 묘사하고 있다. For example, a chart 1602 depicts a first group 1604 of row depth groups 922 with a first value 1608 of the group maximum depth 924 along the left portion. Similarly, a further example depicts a second group 1606 of row depth groups 922 with a second value of the group maximum depth 924 along the right part of the chart.

도 17은 균일 깊이 모듈 912의 예시이다. 균일 깊이 모듈 912는 도 16의 행 깊이 그룹 922의 각 행들 내에 도 10의 모든 현재 입력 픽셀들에 대한 로컬 깊이 818을 행 최대 깊이 924로 지정할 수 있으며 이는 점선으로 그려진 부분들로 차트 1702 상에 그려져 있다. 차트 1702의 X축은 도 10의 현재 입력 영상 406의 행들에 해당한다. 차트 1702의 Y축은 로컬 깊이 818의 참조 정보이다.FIG. 17 is an illustration of a uniform depth module 912. The uniform depth module 912 can specify a local depth 818 for all current input pixels in Figure 10 in each row of the row depth group 922 in Figure 16 as a row maximum depth 924 which is depicted on the chart 1702 with portions drawn in dashed lines have. The X-axis of the chart 1702 corresponds to the rows of the current input image 406 of FIG. The Y-axis of the chart 1702 is reference information of the local depth 818.

예컨대, 차트 1702는 로컬 깊이 818의 제 1 값 1708을 갖는 현재 입력 픽셀 412의 행들의 제 1 그룹 1704를 차트 1702의 왼쪽에 두고 있다. 유사하게, 로컬 깊이 818의 두 번째 값 1710을 갖는 현재 입력 픽셀들 412의 행들인 제2그룹1706을 차트 1702의 오른쪽에 두고 있다.For example, a chart 1702 places a first group 1704 of rows of the current input pixel 412 with a first value 1708 of local depth 818 to the left of the chart 1702. Similarly, a second group 1706, which is a row of current input pixels 412 with a second value 1710 of local depth 818, is located to the right of the chart 1702.

도 18은 본 발명의 추가 실시 예에 따른 디스플레이 장치 작동 방법 1800의 흐름도이다. 방법 1800은 블록 1802 속 현재 입력 픽셀들을 갖는 현재 입력 영상을 수신하는 단계; 블록 1804 속 현재 입력 픽셀들의 특성상 차이점을 기반으로 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계; 블록 1806 속 깊이 후보들의 가중치 평균을 기반으로 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀들의 오브젝트 픽셀 깊이를 계산하는 단계; 및 블록 1808 속 장치에 표시하기 위해서, 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 지각 깊이를 갖는 처리 영상을 생성하는 단계;를 포함한다.18 is a flowchart of a method 1800 of operating a display device according to a further embodiment of the present invention. Method 1800 includes receiving a current input image having current input pixels in a block 1802; Identifying an input object having input object pixels based on differences in characteristics of the current input pixels in block 1804; Calculating an object pixel depth of the input object pixels from the image depth map of the current input image based on the weighted average of the depth candidates in block 1806; And generating a processed image having a perceptual depth from a current input image having an image depth map and an object pixel depth, for display on a block 1808 device.

결과적으로 도출된 방법, 프로세스, 장치, 장비, 물품 그리고/혹은 시스템은 간단하고, 비용 효율적이며, 복잡하지 않고, 다용도이고, 정확하고, 민감하고, 효율적이며 또한 준비되고, 효율적이고 경제적인 제조, 적용, 활용될 수 있는 부품들에 적용될 수 있다. 본 발명의 또 다른 중요한 기능은 비용 절감, 시스템 간소화, 성능 강화라는 오랜 목표를 달성한다.The resulting method, process, apparatus, equipment, article and / or system should be simple, cost effective, uncomplicated, versatile, accurate, sensitive, efficient and prepared, It can be applied to parts that can be applied and utilized. Another important function of the present invention achieves the long-term goal of cost reduction, system simplification, and performance enhancement.

이러한 그리고 다른 유용한 본발명의 측면은 결과적으로 기술상태를 다음 단계로 진보시키고 있다.These and other useful aspects of the invention result in advancing the state of the art to the next level.

본 발명은 최선의 실시 예에 연관되어 설명되었으나 앞선 설명에 따라 통상의 지식을 가진 자는 다양한 수정 및 변형이 가능하다고 이해될 것이다. 따라서, 본 발명은 포함된 청구 범위 안에 해당되는 모든 변형 및 수정을 포괄하는 것으로 이해되어야 할 것이다. 첨부된 도면에 제시되거나 나타난 모든 사항들은 설명을 위한 것이며 본 발명의 권리범위를 제한하는 것으로 이해되어서는 안될 것이다. While the invention has been described in conjunction with the preferred embodiments, it will be understood by those skilled in the art that various modifications and variations are possible in light of the above teachings. Accordingly, it is intended that the present invention cover all modifications and variations that fall within the scope of the appended claims. It is intended that all matter contained in the accompanying drawings shall be interpreted as illustrative and not in a limiting sense the scope of the present invention.

도 3
102 제 1 디바이스 104 통신 경로
106 제 2 디바이스 308 제 1 디바이스 전송
310 제 2 디바이스 전송 312 제 1 제어부
314 제 1 저장부 316 제 1 통신부
318 제 1 사용자 인터페이스 322 제 1 제어 인터페이스
324 제 1 저장 인터페이스 326 제 1 소프트웨어
328 제 1 통신 인터페이스 330 제 1 디스플레이 인터페이스
334 제 2 제어 인터페이스 336 제 2 통신부
338 제 2 사용자 인터페이스 340 제 2 디스플레이 인터페이스
342 제 2 소프트웨어 348 제 2 저장 인터페이스
350 제 2 통신 인터페이스
도 4
212 처리 영상 214 처리 오브젝트
402 영상 시퀀스 404 이전 입력 영상
406 현재 입력 영상 408 다음 입력 영상
410 이전 입력 픽셀 412 현재 입력 픽셀
414 다음 입력 픽셀 416 영상 깊이 맵
418 픽셀 깊이 420 픽셀 모션 모듈
422 모션 벡터 424 오브젝트 검출 모듈
426 로컬 순간 모션 428 입력 오브젝트 픽셀
430 입력 오브젝트 432 오브젝트 조정 모듈
434 오브젝트 깊이 모듈 436 오브젝트 픽셀 깊이
438 영상 변환 모듈 440 영상 디스플레이 모듈
442 현재 처리 픽셀 444 처리 오브젝트 픽셀
도 5
502 오브젝트 식별 모듈 504 오브젝트 모션 모듈
도 6
604 영상 조정 모듈 606 로컬 조정 모듈
608 영상 모션 평균 610 영상 모션 임계값
612 장면 조정 모듈 614 장면 정보
616 줌 씬 618 로컬 모션 모듈
도 8
802 깊이 가중치 모듈 806 깊이 후보
808 고정 깊이 810 영상 최대 깊이
812 순간 최대 깊이 814 행 평균 깊이
816 행 최대 깊이 818 로컬 깊이
820 행 평균 깊이 모듈 822 현재 행
824 행 폭 826 그룹 요인
828 로컬 깊이 모듈 830 가중치 조절 모듈
832 오브젝트 픽셀 위치 834 오브젝트 픽셀 속성
436 오브젝트 픽셀 깊이
도 8
818 로컬 깊이 902 행 합 모듈
904 이진 변환 모듈 906 최대 필터 모듈
908 행 깊이 그룹 모듈 910 그룹 최대 모듈
912 균일 깊이 모듈 914 오브젝트 행 합
916 이진 행 값 917 이진 임계값
918 이진 행 그룹 920 단일 행 깊이
922 행 깊이 그룹 924 그룹 최대 깊이
도 11
902 입력 오브젝트 픽셀
도 12
904 이진 값
도 13
906 이진 값
도 14
820 깊이
도 16
910 깊이
도 17
912 깊이
도 18
1802 현재 입력 영상 수신 1804 입력 오브젝트 식별
1806 오브젝트 깊이 계산 1808 처리 영상 생성
3
102 first device 104 communication path
106 second device 308 first device transfer
310 second device transmission 312 first control unit
314 First storage unit 316 First communication unit
318 First user interface 322 First control interface
324 First storage interface 326 First software
328 First communication interface 330 First display interface
334 Second control interface 336 Second communication section
338 Second user interface 340 Second display interface
342 Second software 348 Second storage interface
350 second communication interface
4
212 processing image 214 processing object
402 Video sequence 404 Previous input video
406 Current input video 408 Next input video
410 previous input pixel 412 current input pixel
414 Next input pixel 416 Image depth map
418 pixel depth 420 pixel motion module
422 motion vector 424 object detection module
426 Local Instant Motion 428 Input Object Pixel
430 input object 432 object adjustment module
434 Object Depth Module 436 Object Pixel Depth
438 image conversion module 440 image display module
442 Current processing pixel 444 Processing object pixel
5
502 object identification module 504 object motion module
6
604 image adjustment module 606 local adjustment module
608 Video Motion Average 610 Video Motion Threshold
612 Scene adjustment module 614 Scene information
616 Zoom Scene 618 Local Motion Module
8
802 Deep Weight Modules 806 Deep Candidates
808 Fixed Depth 810 Image Maximum Depth
812 Moment maximum depth 814 rows Average depth
816 rows maximum depth 818 local depths
820 rows Average depth Module 822 Current row
824 Row Width 826 Group Factor
828 Local depth module 830 Weight adjustment module
832 Object pixel position 834 Object pixel attribute
436 Object pixel depth
8
818 Local Depth 902 Matrix Module
904 Binary conversion module 906 Maximum filter module
908 Row Depth Group Module 910 Group Maximum Module
912 Uniform Depth Module 914 Object Alignment
916 Binary Row Values 917 Binary Thresholds
918 Binary Row Group 920 Single Row Depth
922 Row depth group 924 Group maximum depth
11
902 Input object pixel
12
904 binary value
13
906 binary value
14
820 Depth
16
910 depth
17
912 depth
18
1802 Receive the current input image 1804 Identify the input object
1806 Calculate object depth 1808 Create processed image

Claims (20)

디스플레이 장치의 동작 방법에 있어서,
현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 단계;
상기 현재 입력 픽셀의 특성상 차이점에 기초하여 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계;
상기 현재 입력 픽셀의 현재 행과 상기 현재 입력 픽셀에 인접한 행들의 평균 값을 이용하여 상기 현재 입력 영상의 영상 깊이 맵으로부터 상기 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 단계; 및
장치에 표시하기 위해서, 상기 영상 깊이 맵과 상기 오브젝트 픽셀 깊이를 갖는 상기 현재 입력 영상으로부터 지각 깊이를 갖는 처리된 영상을 생성하는 단계;을 포함하는 디스플레이 장치의 동작 방법.
A method of operating a display device,
Receiving a current input image having a current input pixel;
Identifying an input object having an input object pixel based on a difference in characteristics of the current input pixel;
Calculating an object pixel depth for the input object pixel from the image depth map of the current input image using the current row of the current input pixel and the average value of the rows adjacent to the current input pixel; And
Generating a processed image having a perceptual depth from the current input image having the image depth map and the object pixel depth for display on the device.
제 1항에 있어서,
상기 입력 오브젝트를 식별하는 단계는 로컬 순간 모션을 갖는 입력 오브젝트를 식별하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
The method according to claim 1,
Wherein identifying the input object comprises identifying an input object having local instantaneous motion.
제 1 항에 있어서,
상기 오브젝트 픽셀 깊이를 계산하는 단계는 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 위치에 기초하여 상기 평균 값을 조정하는, 디스플레이 장치의 동작 방법.
The method according to claim 1,
Wherein the step of calculating the object pixel depth adjusts the average value based on an object pixel position of the input object pixel.
제 1 항에 있어서,
상기 오브젝트 픽셀 깊이를 계산하는 단계는 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 특성에 기초하여 상기 평균 값을 조정하는, 디스플레이 장치의 동작 방법.
The method according to claim 1,
Wherein the step of calculating the object pixel depth adjusts the average value based on an object pixel characteristic of the input object pixel.
제 1항에 있어서
장면 정보를 갖는 입력 오브젝트 픽셀을 확인하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
The method of claim 1, wherein
Further comprising the step of identifying an input object pixel having scene information.
디스플레이 장치의 동작 방법에 있어서,
현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 단계;
상기 현재 입력 픽셀의 특성상 차이점들을 기반으로 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계;
영상 최대 깊이, 상기 현재 입력 픽셀의 현재 행과 상기 현재 입력 픽셀에 인접한 행들의 평균 값을 이용하여 계산된 행 평균 깊이, 로컬 깊이 및 영상 픽셀 깊이의 가중치 평균에 기초하여 상기 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 단계; 및
장치에 디스플레이하기 위해 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 처리된 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
A method of operating a display device,
Receiving a current input image having a current input pixel;
Identifying an input object having input object pixels based on differences in characteristics of the current input pixel;
An image depth maximum, an image depth of the current input image based on a weighted average of a row average depth, a local depth, and an image pixel depth calculated using a current row of the current input pixel and an average value of rows adjacent to the current input pixel, Calculating an object pixel depth for an input object pixel from the map; And
And generating an image processed from a current input image having an image depth map and an object pixel depth for display on the device.
제 6항에 있어서,
상기 오브젝트 픽셀 깊이를 계산하는 단계는 순간 최대 깊이에 기초하여 상기 오브젝트 픽셀 깊이를 계산하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
The method according to claim 6,
Wherein calculating the object pixel depth comprises calculating the object pixel depth based on an instantaneous maximum depth.
삭제delete 제 6항에 있어서,
상기 로컬 깊이에 기초하여 상기 오브젝트 픽셀 깊이를 계산하는 단계는,
로컬 깊이를 현재 입력 픽셀에 수직적으로 그룹화된 행들의 그룹 최대 깊이로 지정하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
The method according to claim 6,
Wherein calculating the object pixel depth based on the local depth comprises:
And specifying a local depth as a group maximum depth of rows grouped vertically to the current input pixel.
제 6항에 있어서,
상기 처리된 영상을 생성하는 단계는,
상기 오브젝트 픽셀 깊이를 상기 입력 오브젝트 픽셀들에 적용하여 지각 깊이를 갖는 처리된 오브젝트를 생성하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.
The method according to claim 6,
Wherein the step of generating the processed image comprises:
And applying the object pixel depth to the input object pixels to generate a processed object having a perceptual depth.
디스플레이 장치에 있어서,
현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 통신부;
상기 통신부와 연결되어, 현재 입력 픽셀들의 특성상 차이점에 기초하여 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 오브젝트 검출 모듈;
상기 오브젝트 검출 모듈과 연결되어, 영상 최대 깊이, 현재 입력 픽셀의 현재 행과 상기 현재 입력 픽셀에 인접한 행들의 평균 값을 이용하여 계산된 행 평균 깊이, 로컬 깊이 및 영상 픽셀 깊이의 가중치 평균에 기초하여 상기 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 오브젝트 깊이 모듈; 및
상기 오브젝트 깊이 모듈과 연결되고, 상기 영상 깊이 맵과 상기 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 장치 상에 디스플레이할 지각 깊이를 갖는 처리된 영상을 생성하는 영상 변환 모듈;을 포함하는 것을 특징으로 하는 디스플레이 장치.
In the display device,
A communication unit for receiving a current input image having a current input pixel;
An object detection module, coupled to the communication unit, for identifying an input object having an input object pixel based on a difference in characteristics of current input pixels;
Based on the image maximum depth, the weighted average of the row average depth, the local depth, and the image pixel depth calculated using the current row of the current input pixel and the average value of the rows adjacent to the current input pixel, An object depth module for calculating an object pixel depth for an input object pixel from an image depth map of the current input image; And
And an image transformation module coupled to the object depth module for generating a processed image having a perception depth to be displayed on the device from a current input image having the image depth map and the object pixel depth, Device.
제 11항에 있어서,
상기 오브젝트 검출 모듈과 연결되어, 특정 지역의 순간 모션을 갖는 입력 오브젝트를 식별하는 오브젝트 모션 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
Further comprising an object motion module coupled to the object detection module for identifying an input object having instantaneous motion of a specific region.
제 11항에 있어서,
상기 오브젝트 깊이 모듈과 연결되어 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 위치에 기초하여 상기 깊이 후보들의 가중치 평균들을 조정하는 가중치 조정 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
And a weight adjustment module coupled to the object depth module to adjust weight averages of the depth candidates based on an object pixel position of the input object pixel.
제 11항에 있어서,
상기 오브젝트 깊이 모듈과 연결되고, 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 특성들에 기초하여 상기 가중치 평균을 조정하는 가중치 조정 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
And a weight adjustment module coupled to the object depth module and configured to adjust the weighted average based on the object pixel characteristics of the input object pixel.
제 11항에 있어서,
상기 오브젝트 검출 모듈과 연결되고, 장면 정보를 갖는 입력 오브젝트 픽셀을 확인하는 장면 조정 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
And a scene adjustment module connected to the object detection module and identifying an input object pixel having scene information.
삭제delete 제 11항에 있어서,
상기 오브젝트 깊이 모듈은 순간 최대 깊이에 기초하여 상기 오브젝트 픽셀 깊이를 계산하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
Wherein the object depth module calculates the object pixel depth based on the instantaneous maximum depth.
삭제delete 제 11항에 있어서,
상기 오브젝트 깊이 모듈은
상기 로컬 깊이를 현재 입력 픽셀의 수직적으로 그룹화된 행들의 그룹 최대 깊이로 지정하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
The object depth module
Wherein said local depth is specified as a group maximum depth of vertically grouped rows of current input pixels.
제 11항에 있어서,
상기 영상 변환 모듈은,
상기 오브젝트 픽셀 깊이를 상기 입력 오브젝트 픽셀에 적용하여 상기 지각 깊이를 갖는 처리된 오브젝트를 생성하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
Wherein the image conversion module comprises:
And applies the object pixel depth to the input object pixel to generate a processed object having the perceptual depth.
KR1020120038686A 2011-06-14 2012-04-13 Display apparatus using image conversion mechanism and method of operation thereof KR101870764B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12168756.0A EP2536160B1 (en) 2011-06-14 2012-05-21 Display system with image conversion mechanism and method of operation thereof
JP2012133797A JP2013003586A (en) 2011-06-14 2012-06-13 Display system with image conversion mechanism and method of operation thereof
CN2012101996684A CN102833571A (en) 2011-06-14 2012-06-14 Display system with image conversion mechanism and method of operation thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/160,409 2011-06-14
US13/160,409 US8432392B2 (en) 2010-09-02 2011-06-14 Display system with image conversion mechanism and method of operation thereof

Publications (2)

Publication Number Publication Date
KR20120138628A KR20120138628A (en) 2012-12-26
KR101870764B1 true KR101870764B1 (en) 2018-06-25

Family

ID=47915655

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120038686A KR101870764B1 (en) 2011-06-14 2012-04-13 Display apparatus using image conversion mechanism and method of operation thereof

Country Status (1)

Country Link
KR (1) KR101870764B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002013141A1 (en) * 2000-08-09 2002-02-14 Dynamic Digital Depth Research Pty Ltd Image conversion and encoding techniques
JP2003209858A (en) * 2002-01-17 2003-07-25 Canon Inc Stereoscopic image generating method and recording medium
KR20070073803A (en) * 2004-09-22 2007-07-10 컨버젼 워크스, 인크 System and method for processing video images
WO2011033673A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 Image processing apparatus
WO2011052389A1 (en) * 2009-10-30 2011-05-05 富士フイルム株式会社 Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002013141A1 (en) * 2000-08-09 2002-02-14 Dynamic Digital Depth Research Pty Ltd Image conversion and encoding techniques
JP2003209858A (en) * 2002-01-17 2003-07-25 Canon Inc Stereoscopic image generating method and recording medium
KR20070073803A (en) * 2004-09-22 2007-07-10 컨버젼 워크스, 인크 System and method for processing video images
WO2011033673A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 Image processing apparatus
WO2011052389A1 (en) * 2009-10-30 2011-05-05 富士フイルム株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
KR20120138628A (en) 2012-12-26

Similar Documents

Publication Publication Date Title
US8432392B2 (en) Display system with image conversion mechanism and method of operation thereof
US9197884B2 (en) System, apparatus, and method for displaying 3-dimensional image and location tracking device
US9049336B2 (en) Auto-detect method for detecting image format and playback method applying the same
CN111614993B (en) Barrage display method and device, computer equipment and storage medium
CN104081765B (en) Image processing apparatus and image processing method thereof
KR101685981B1 (en) A system, an apparatus and a method for displaying a 3-dimensional image
JP5257248B2 (en) Image processing apparatus and method, and image display apparatus
CN108604389B (en) Continuous depth-ordered image synthesis
US20140267434A1 (en) Display system with extended display mechanism and method of operation thereof
US20120249543A1 (en) Display Control Apparatus and Method, and Program
US9113153B2 (en) Determining a stereo image from video
TWI491244B (en) Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object
US20120224035A1 (en) Electronic apparatus and image processing method
EP2536160B1 (en) Display system with image conversion mechanism and method of operation thereof
JP5127973B1 (en) Video processing device, video processing method, and video display device
KR101870764B1 (en) Display apparatus using image conversion mechanism and method of operation thereof
JP4892105B1 (en) Video processing device, video processing method, and video display device
US10176553B2 (en) Image processing system with three-dimensional viewing and method of operation thereof
US20130287303A1 (en) Display system with edge map conversion mechanism and method of operation thereof
CN102970509B (en) The method of figure frame-rate conversion and image processor
KR101758274B1 (en) A system, a method for displaying a 3-dimensional image and an apparatus for processing a 3-dimensional image
EP2624208A2 (en) Display system with image conversion mechanism and method of operation thereof
KR101910071B1 (en) Three-Demensional Display System with Depth Map Mechanism And Method of Operation Thereof
US8600114B2 (en) Image processing apparatus and image processing method
US8594436B2 (en) Method and circuit for detecting edge of fixed pattern

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant