KR101870764B1 - Display apparatus using image conversion mechanism and method of operation thereof - Google Patents
Display apparatus using image conversion mechanism and method of operation thereof Download PDFInfo
- Publication number
- KR101870764B1 KR101870764B1 KR1020120038686A KR20120038686A KR101870764B1 KR 101870764 B1 KR101870764 B1 KR 101870764B1 KR 1020120038686 A KR1020120038686 A KR 1020120038686A KR 20120038686 A KR20120038686 A KR 20120038686A KR 101870764 B1 KR101870764 B1 KR 101870764B1
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- image
- pixel
- current input
- module
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
디스플레이 방법을 개시한다. 본 발명의 일 실시 예에 따른 디스플레이 방법은 현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 단계; 현재 입력 픽셀의 특성상 차이점에 기초하여 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계; 깊이 후보들의 가중치 평균을 근거로 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 단계; 및 장치에 표시하기 위해서, 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 지각 깊이를 갖는 처리된 영상을 생성하는 단계;을 포함한다.Display method. A display method according to an exemplary embodiment of the present invention includes: receiving a current input image having a current input pixel; Identifying an input object having an input object pixel based on a difference in characteristics of a current input pixel; Calculating an object pixel depth for the input object pixel from the image depth map of the current input image based on the weighted average of the depth candidates; And generating a processed image having a perceptual depth from a current input image having an image depth map and object pixel depth, for display on the device.
Description
본 발명은 디스플레이 장치에 관한 것으로 더욱 상세하게는 이미지 변환 장치에 관한 것이다. The present invention relates to a display device, and more particularly to an image conversion device.
현대의 소비자 가전제품과 산업 가전제품 특히 그래픽 디스플레이 장치, TV, 프로젝터, 핸드폰, 휴대용 디지털 제품, 조합 장치들은 좀더 풍요로운 현대 생활을 영위하는데 일조하고 있다. 현재 상용되는 기술에 관한 연구 개발은 다양한 방향에서 이루어지고 있다.Contemporary consumer electronics and industrial appliances, especially graphic display devices, TVs, projectors, mobile phones, portable digital products and combination devices are helping to create a richer modern life. R & D on currently commercialized technologies is taking place in various directions.
특히, 사용자들이 3차원 디스플레이 장치의 발전으로 더 많은 권한을 갖게 되면서 과거 또는 새로운 패러다임들은 이러한 새로운 3차원 디스플레이 공간을 활용하기 시작하고 있다. 이러한 새로운 디스플레이 장치 기회를 활용하기 위한 다양한 기술적 방법들이 존재한다. 그 중 한 가지 기존의 방식은 비디오 프로젝터, TV, 모니터, 게임 시스템 및 개인휴대 정보 단말기(PDA)와 같은 소비자용 전자기기, 산업용 전자기기, 휴대용 전자 기기들 상에 3차원 영상을 구현하는 것이다.In particular, as users become more privileged with the development of 3D display devices, past or new paradigms are starting to take advantage of these new 3D display spaces. There are a variety of technical methods to take advantage of these new display device opportunities. One such conventional approach is to implement 3D imaging on consumer electronics, industrial electronics, and portable electronic devices such as video projectors, TVs, monitors, gaming systems and personal digital assistants (PDAs).
서비스 기반 3차원 디스플레이는 사용자가 스스로 정보를 만들고 이전, 저장, 소비할 수 있게 하여 현실 시계에서 사용자가 스스로 정보를 만들고 이전, 저장, 소비할 수 있게 해준다. 그러한 서비스 기반 3차원 디스플레이의 사용 방식 중 하나는 디스플레이 상에 3차원 영상을 효율적으로 구현하는 것이다.Service-based three-dimensional displays enable users to create, transfer, store, and consume information on their own, allowing users to create, transfer, store, and consume information on their own. One such use of such a service-based three-dimensional display is to efficiently implement a three-dimensional image on a display.
3차원 디스플레이 장치은 프로젝터, TV, 노트북, 휴대용 기기 및 다른 휴대용 상품들 내에 구성되어있다. 오늘날 이러한 시스템들은 도표, 지도 혹은 비디오와 같은 이용가능한 관련 정보를 표시하여 소비자들을 돕고 있다. 3차원 영상 디스플레이는 매우 유용한 관련 정보를 제공한다.The three-dimensional display device is configured in a projector, a TV, a notebook, a portable device, and other portable products. Today, these systems are helping consumers by displaying relevant relevant information such as charts, maps or videos. 3D image display provides very useful related information.
그러나 3차원 형식으로 정보를 디스플레이하는 것은 소비자들에게 큰 우려를 주고 있다. 현실세계와 동떨어진 3차원 영상을 구현하는 것은 3차원 디스플레이 장치 사용의 이점을 떨어뜨린다. 예컨대, 입체감의 차이를 갖는 영상 속 오브젝트는 사용자를 불편하게 할 수 있다. However, displaying information in a three-dimensional format is of great concern to consumers. Implementing a three-dimensional image that is remote from the real world diminishes the advantages of using a three-dimensional display device. For example, an in-video object having a difference in three-dimensional sense may make the user uncomfortable.
그러므로 3차원 디스플레이 장치는 여전히 3차원 영상을 구현하기 위한 영상 변환 메커니즘을 포함할 필요가 있다. 시장 경쟁이 전례 없이 심화되고, 소비자의 기대심리는 높아지며, 시장 내에서 상품의 뚜렷한 차별화의 기회가 줄어들고 있다는 점에서 이러한 문제의 해답을 찾아야 하는 문제가 점차 중요해지고 있다. 게다가, 비용을 절감하고, 효율성과 성능을 제고하며, 경쟁적 압박을 대응할 필요성이 이런 문제점들의 해결법을 찾는 것에 대한 중요한 필요성을 훨씬 더 시급하게 한다.Therefore, the three-dimensional display device still needs to include an image conversion mechanism for realizing a three-dimensional image. It is becoming increasingly important to find solutions to these problems as market competition intensifies unprecedentedly, consumer expectations increase, and opportunities for distinctive product differentiation within the market are declining. In addition, the need to reduce costs, increase efficiency and performance, and respond to competitive pressures make the critical need for finding solutions to these problems even more urgent.
이러한 문제들의 해결책은 오랫동안 연구되어 왔으나 종래의 개발은 어떤 해결책도 교시 또는 암시하지 못하고 있으며, 따라서, 이 문제들의 해결책은 이 분야 통상의 지식을 가진 자들에게 요원하게 남아있다.The solution to these problems has been studied for a long time, but conventional development does not teach or suggest any solution, and therefore the solution to these problems remains a challenge to those of ordinary skill in the art.
본 발명에 따른 디스플레이 장치의 동작 방법은 현재 입력 픽셀들을 포함하는 현재 입력 영상을 수신하는 단계; 현재 입력 픽셀들의 특징상 차이점에 근거하여 입력 오브젝트 픽셀들을 포함하는 입력 오브젝트를 식별하는 단계; 깊이 후보들의 가중치가 부여된 평균을 기반으로 현재 입력 영상의 영상 깊이 맵에서 입력 오브젝트 픽셀들의 오브젝트 픽셀 깊이를 계산하는 단계; 및 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 장치에 디스플레이를 위한 인식된 깊이를 갖는 처리된 영상을 생성하는 단계;를 포함한다.A method of operating a display device according to the present invention includes: receiving a current input image including current input pixels; Identifying an input object comprising input object pixels based on a difference in the characteristics of the current input pixels; Calculating an object pixel depth of the input object pixels in the image depth map of the current input image based on the weighted average of the depth candidates; And generating a processed image having a recognized depth for display on the device from a current input image having an image depth map and an object pixel depth.
본 발명에 따른 디스플레이 장치는 현재 입력 픽셀들을 포함하는 현재 입력 영상을 수신하는 통신부와; 통신부와 서로 연결되고, 현재 입력 픽셀들의 특징상의 차이점에 근거하여, 입력 오브젝트 픽셀들을 포함하는 입력 오브젝트를 식별하는 오브젝트 검출 모듈과; 상기 오브젝트 검출 모듈과 연결되고 깊이 후보들의 가중치가 부여된 평균을 기반으로 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀들의 오브젝트 픽셀 깊이를 계산하는 오브젝트 깊이 모듈과; 상기 오브젝트 깊이 모듈과 연결되고, 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 인식된 깊이를 갖는 처리된 영상을 생성하는 영상 변환 모듈;을 포함한다. A display device according to the present invention includes: a communication unit for receiving a current input image including current input pixels; An object detection module, connected to the communication unit, for identifying an input object including input object pixels, based on differences in characteristics of the current input pixels; An object depth module coupled to the object detection module and calculating an object pixel depth of input object pixels from an image depth map of a current input image based on a weighted average of depth candidates; And an image transformation module, coupled to the object depth module, for generating a processed image having a depth recognized from a current input image having an image depth map and an object pixel depth.
본 발명은 상기 설명에 추가되거나 대체되는 다른 단계나 요소를 갖는 어떠한 실시 예도 포함한다. 그러한 단계나 실시 예는 기술 분야의 통상의 지식을 갖는 자가 첨부된 도면을 참조하여 후술하는 상세한 설명을 읽는 경우 명백해질 것이다. The present invention includes any embodiment having other steps or elements added or substituted for the above description. Such steps or embodiments will become apparent to those of ordinary skill in the art upon reading the following detailed description with reference to the accompanying drawings.
도 1은 본 발명 실시 예에 따른 영상 변환 매커니즘을 포함하는 디스플레이 장치,
도 2는 도 1에서 설명한 제 1 디바이스 의 디스플레이 인터페이스의 예,
도 3은 디스플레이 장치의 블록 다이어그램의 예,
도 4는 디스플레이 장치의 제어 흐름도,
도 5는 오브젝트 검출 모듈의 도면,
도 6은 오브젝트 조정 모듈의 도면,
도 7은 현재 입력 영상의 영상 깊이 맵의 일부 예,
도 8은 오브젝트 깊이 모듈의 도면,
도 9는 로컬 깊이 모듈의 도면,
도 10은 현재 입력 영상의 예,
도 11은 행 합 모듈 (row sum module)의 예,
도 12는 이진 변환 모듈(binary conversion module)의 예,
도 13은 최대 필터 모듈 (maximum filter module)의 예,
도 14는 행 평균 깊이 모듈 (row average depth module)의 예,
도 15는 행 깊이 집단 모듈 (row depth group module)의 예,
도 16은 그룹 최대 모듈 (group maximum module)의 예,
도 17은 균등 깊이 모듈 (uniform depth module)의 예, 그리고
도 18은 본 발명의 추가적인 예시에 따른 디스플레이 장치의 작동 방법의 흐름도,1 is a block diagram of a display device including an image conversion mechanism according to an embodiment of the present invention,
Fig. 2 shows an example of the display interface of the first device described in Fig. 1,
3 shows an example of a block diagram of a display device,
4 is a control flowchart of the display device,
5 is a diagram of an object detection module,
6 is a diagram of an object adjustment module,
7 shows a part of the image depth map of the current input image,
Figure 8 is a drawing of an object depth module,
Figure 9 is a drawing of a local depth module,
10 shows an example of a current input image,
11 shows an example of a row sum module,
12 shows an example of a binary conversion module,
Figure 13 shows an example of a maximum filter module,
14 shows an example of a row average depth module,
15 shows an example of a row depth group module,
Figure 16 is an example of a group maximum module,
Figure 17 shows an example of a uniform depth module, and
18 is a flowchart of a method of operating a display device according to a further example of the present invention,
아래의 실시 예는 통상의 지식을 가진 자가 본 발명을 하고 사용할 수 있도록 상세한 설명을 담고 있다. 현재의 개시에 근거하여 다른 실시 예도 자명한 것으로 이해되어야 하며, 시스템, 방법, 기계적 변화는 본 발명의 범위를 벗어나지 않는 것으로 이해되어야 한다. The following examples are provided to enable those of ordinary skill in the art to make and use the invention. It is to be understood that other embodiments will be apparent on the basis of the present disclosure, and that the system, method and mechanical changes are not to be regarded as a departure from the scope of the present invention.
아래의 설명에서 다수의 구체적인 세부설명은 본 발명에 대한 완전한 이해를 위해 제공된다. 그러나 본 발명은 이러한 자세한 설명 없이도 실시될 수 있음이 분명하다. 본 발명이 불명확해지는 것을 방지하기 위해 일부 널리 알려진 회로, 시스템 구성, 처리 과정은 상세히 개시되지 않는다.In the following description, numerous specific details are set forth in order to provide a thorough understanding of the present invention. It should be apparent, however, that the present invention may be practiced without these details. In order to prevent the present invention from becoming unclear, some well-known circuits, system configurations, and processes are not disclosed in detail.
시스템의 실시 예를 나타내는 도면들의 반은 도표로 구성되어 있으며 일정 비율로 나타나 있지 않고 특히, 차원(dimension)들의 일부는 표현의 명료성을 위한 것이며 도면에서 과장되어 표현되어 있다. 유사하게, 설명을 쉽게 이해하기 위한 도면들은 일반적으로 비슷한 방향으로 그려지지만, 도면의 설명은 대부분 임의적이다. 일반적으로 발명은 어떠한 방향에서나 동작할 수 있다. 본 발명의 실시 예는 설명의 편의를 위해 제1실시 예, 제2실시 예와 같이 설명되어지는데, 특별한 의미를 갖거나 본 발명을 한정하기 위한 것은 아니다. Half of the drawings illustrating embodiments of the system are organized in charts and are not drawn to scale, in particular some of the dimensions are for clarity of presentation and are exaggerated in the drawings. Similarly, although the drawings for easy understanding are drawn in a generally similar direction, the description of the drawings is mostly arbitrary. Generally, an invention can operate in any direction. Embodiments of the present invention will be described with reference to the first and second embodiments for the sake of convenience, but they are not intended to limit the present invention.
통상의 지식을 습득한 자는 영상 정보가 디스플레이 되는 형식이 본 발명의 일부 실시 예들에서 큰 중요성을 갖지 않음을 잘 이해할 것이다. 예컨대, 일부 실시 예에서 영상 정보는 X와 Y가 영상 내 픽셀의 위치를 정의하는 두 개의 좌표 역할을 하는 (X,Y) 형식으로 나타나 있다. Those of ordinary skill in the art will appreciate that the manner in which image information is displayed is not of significant importance in some embodiments of the present invention. For example, in some embodiments, the image information is in the (X, Y) format, where X and Y serve as two coordinates defining the location of the pixels in the image.
다른 대안적인 실시 예에서, 3차원 영상 영상 정보는 픽셀의 색상에 관한 관련 정보를 담는 (X, Y, Z) 형식으로 나타나 있다. 본 발명의 추가적인 실시 예에서, 3차원 영상 정보는 또한 광도 또는 휘도에 관한 내용을 포함하고 있다.In another alternative embodiment, the three dimensional image information is represented in the (X, Y, Z) format containing relevant information about the color of the pixel. In a further embodiment of the present invention, the three-dimensional image information also includes content regarding brightness or brightness.
이하에서 "영상"이란 이차원 영상, 삼차원 영상, 비디오 프레임, 컴퓨터 파일 표현, 카메라에서 입력 받은 영상, 비디오 프레임 혹은 이들의 조합을 포함할 수 있다. 예컨대, 상기 영상은 기계에서 판독 가능한 디지털 파일, 물리적 사진, 디지털 사진, 활동 사진 프레임 (motion picture frame), 비디오 프레임, x-ray 영상, 스캔 영상 혹은 그 조합일 수 있다. 또한 예컨대, 상기 하드웨어는 회로, 프로세서, 컴퓨터, 집적회로 (integrated circuit), 집적회로코어 (integrated circuit cores), 압력 센서, 관성 센서, 미세전자기계시스템 (micro-electro mechanical system: MEMS), 패시브 디바이스 (passive device), 혹은 이들의 조합일 수 있다.Hereinafter, the term " image " may include a two-dimensional image, a three-dimensional image, a video frame, a computer file representation, an image received from a camera, a video frame, or a combination thereof. For example, the image may be a machine-readable digital file, a physical photograph, a digital photograph, an active picture frame, a video frame, an x-ray image, a scan image, or a combination thereof. For example, the hardware may also be implemented as a circuit, a processor, a computer, an integrated circuit, an integrated circuit cores, a pressure sensor, an inertial sensor, a micro-electro mechanical system (MEMS) a passive device, or a combination thereof.
이하에서 "모듈"이란 소프트웨어, 하드웨어 혹은 이들의 조합을 포함할 수 있다. 예컨대, 소프트웨어는 기계 코드, 펌웨어(firmware), 임베디드 코드(embedded code), 어플리케이션 소프트웨어를 포함할 수 있다. 또한 하드웨어는 회로, 프로세서, 컴퓨터, 집적회로, 집적회로 코어, 압력 센서, 관성 센서, 미세전자기계시스템, 패시브 디바이스 혹은 이들의 조합일 수 있다.In the following, " module " may include software, hardware, or a combination thereof. For example, the software may include machine code, firmware, embedded code, application software. The hardware may also be a circuit, a processor, a computer, an integrated circuit, an integrated circuit core, a pressure sensor, an inertial sensor, a microelectromechanical system, a passive device, or a combination thereof.
도 1은 본 발명의 실시 예에 따른 영상 변환 매커니즘을 가진 디스플레이 시스템(100)를 보여준다. 디스플레이 시스템(100)는 클라이언트 또는 서버인 제 2 디바이스 106에 연결된 클라이언트 또는 서버인 제 1 디바이스 102 를 포함한다. 제 1 디바이스 102는 무선 혹은 유선의 네트워크 경로(104)를 통해 제 2 디바이스 106과 연결된다.Figure 1 shows a
예컨대, 제 1 디바이스 102 는 휴대폰, 개인휴대단말기(PDA), 노트북 컴퓨터, 액정표시장치 (liquid crystal display: LCD) 장치 또는 기타 다기능 디스플레이 혹은 엔터테인먼트 장치와 같은 다양한 디스플레이 장치 중 어느 것일 수 있다. 제 1 디바이스 102는 제 2 디바이스 106과 통신하기 위해 통신 경로 104와 직접 혹은 간접적으로 연결될 수 있거나 독립형 디바이스로 구현될 수 있다.For example, the
설명을 위해, 디스플레이 시스템 100이 디스플레이 장치인 제 1 디바이스 102를 포함하는 것으로 상정했으나, 제 1 디바이스 102는 다른 종류의 장치가 될 수 있다. 예컨대, 제 1 디바이스 102는 영상 출력 장치이거나 혹은 멀티 미디어 프리젠테이션 (multi-media presentation)일 수 있다. 멀티 미디어 프리젠테이션은 음향, 스트리밍 영상 또는 비디오 피드(video feed)의 시퀀스 혹은 이들의 조합을 포함할 수 있다. 예컨대, 제 1 디바이스 102는 고해상도 TV(HDTV), 3차원 TV, 컴퓨터 모니터, 개인휴대단말기, 휴대폰, 멀티미디어 세트 (multi-media set)일 수 있다.For the sake of explanation, it is assumed that the
제 2 디바이스 106은 다양한 종류의 중앙 집중형 혹은 분산형 컴퓨팅 장치이거나 비디오 전송 장치들 중 하나일 수 있다. 예컨대, 제 2 디바이스 106은 멀티미디어 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 비디오 게임기, 그리드 컴퓨팅 자원(grid-computing resources), 가상화 컴퓨터 자원 (virtualized computer resource), 클라우드 컴퓨팅 자원, 라우터(routers), P2P 분산 컴퓨팅 장치 (peer-to-peer distributed computing devices), 미디어 재생 장치, 디지털 비디오 디스크(DVD) 플레이어, 3차원 DVD 플레이어, 카메라 혹은 비디오 카메라와 같은 기록 장치 또는 이들의 조합일 수 있다. 또 다른 예를 들면, 제 2 디바이스 106은 방송 혹은 라이브 스트림 신호를 수신하기 위한 신호 수신기일 TV 수신기, 케이블 박스, 위성방송 수신기이거나 혹은 TiVo(TM)이나 슬링박스(TM)와 같은 웹 지원 장치일 수 있다.The
제 2 디바이스 106은 같은 공간에 집중되거나, 다른 공간에 분산되거나, 전자통신 네트워크 내에 설치되어 서로 다른 지리적 공간에 분산되어 위치할 수 있다. 제 2 디바이스 106은 제 1 디바이스 102와 통신하기 위해, 통신 경로 104와 연결되기 위한 수단을 가질 수 있다.The
설명을 위하여, 디스플레이 시스템 100가 컴퓨팅 장치인 제 2 디바이스 106을 포함하는 것으로 상정했으나 제 2 디바이스 106은 다른 종류의 장치가 될 수 있다. 또한 설명을 위해, 디스플레이 시스템 100에서 제 2 디바이스 106과 제 1 디바이스 102는 통신 경로 104의 끝부분에 그려져 있지만, 디스플레이 시스템 100은 제 1 디바이스 102, 제 2 디바이스 106 그리고 통신 경로 104 사이에 다른 구획을 가질 수 있다. 예컨대, 제 1 디바이스 102, 제 2 디바이스 106 혹은 그 조합은 통신 경로 104의 일부로서 역할을 담당할 수 있다.For purposes of discussion, it is assumed that the
통신 경로 104는 다양한 네트워크일 수 있다. 예컨대, 통신 경로 104는 무선 통신, 유선 통신, 광학(optical) 통신, 초음속(ultrasonic)통신 혹은 그 조합일 수 있다. 위성 통신, 휴대 통신, 블루투스, 국제적외선통신데이터협회 기준 (Infrared Data Association standard: IrDA), 와이파이 (wireless fidelity: WiFi) 및 와이맥스(worldwide interoperability for microwave access: WiMAX)는 통신 경로 104에 포함될 수 있는 무선 통신의 예들이다. 이서넷(Ethernet), 디지털 가입자 회선(digital subscriber line: DSL), 광 가입자 망(fiber to the home: FTTH) 및 기존 전화 서비스(plain old telephone service: POTS)는 통신 경로 104에 포함될 수 있는 무선 통신의 예들이다.The
더 나아가, 통신 경로 104는 다수의 네트워크 토폴로지(topology)와 거리(distance)에 걸쳐 있을 수 있다. 예컨대, 통신 경로 104는 직렬 접속(direct connection), 개인 통신망(personal area network: PAN), 근거리 통신망(local area network: LAN), 도시지역통신망(metropolitan area network: MAN), 원거리통신망(wide area network: WAN) 또는 이들의 조합을 포함할 수 있다. Further, the
도 2는 도 1의 제 1 디바이스 102의 디스플레이 인터페이스 210의 예를 도시한 것이다. 디스플레이 인터페이스 210은 영상 출력 또는 멀티 미디어 프리젠테이션(multi-media presentation)을 위한 물리적 장치이다. 예컨대, 디스플레이 인터페이스는 액정표시장치(liquid crystal display: LCD) 패널을 포함하는 스크린, 플라즈마 스크린 혹은 프로젝션 스크린일 수 있다. FIG. 2 illustrates an example of a
디스플레이 인터페이스 210은 처리된 영상 212을 표시한다. 처리된 영상 212는 디스플레이 인터페이스 210에 표시될 때 지각 깊이 211을 갖도록 처리된 많은 수의 픽셀을 포함하는 영상으로 정의한다. The
지각 깊이란 디스플레이 인터페이스 210을 멀리서 볼 때, 오브젝트가 다른 오브젝트나 영상 속 배경에 상대적으로 가깝게 혹은 멀리 나타나는 것으로 정의한다. 예컨대, 영상의 왼쪽 아래 코너를 원점으로 하는 3차원 직교 좌표에서 X축 213은 폭을 측정하기 위한 기준이 되고, Y축 215는 깊이를 측정하기 위한 기준이 되며, Z축 217은 높이를 측정하기 위한 기준이다. Y좌표 값이 큰 오브젝트는 Y 좌표 값이 작은 오브젝트보다 지각 깊이 211의 값이 더 클 수 있다. 지각 깊이 211의 값이 더 큰 오브젝트는 지각 깊이 211의 값이 작은 오브젝트보다 더 가깝게 보이게 된다.The perception depth is defined as the object appears relatively close to or farther from the background in another object or image when viewed from a distance from the
또 다른 예에서 사용자는 처리된 영상 212 속 오브젝트가 디스플레이 인터페이스 210의 평면 바깥이나 그 앞에 나타나는 것에 주목하여 지각 깊이 211를 확인하거나 감지할 수 있다. 이와 유사하게, 사용자는 처리된 영상 안의 오브젝트가 디스플레이 인터페이스 210의 평면의 내부나 뒤쪽으로 더 깊은 곳에서 나타나는 것을 주목하여 깊이를 지각할 수 있다. 예컨대, 처리 영상 212은 거리를 표현하는 방식으로서 픽셀을 흐릿하게 할 수 있다. 밝기와 색의 강도(intensity) 역시 지각 깊이 211를 제공할 정도로 감소된다. In another example, the user can identify or sense the perceived
그러나 또 다른 예에서, 지각 깊이 211은 행 사이의 간격을 띄우는 것으로 표현될 수 있다. 행간이 좁은 처리 영상 212의 일부는 지각 깊이 211의 값이 더 낮은 반면 행간이 넓은 오브젝트의 지각 깊이 211는 더 높게 나타난다. 구체적인 예를 들자면, 행간이 좁은 처리 영상 212의 윗부분은 지각 깊이 211의 값이 낮고, 지각 깊이 211의 높은 값을 갖는 행간이 넓은 처리 영상 212의 아래 부분보다 멀리 떨어져 보인다.However, in yet another example, the
처리 영상 212는 처리 오브젝트 214를 포함할 수 있다. 처리 오브젝트 214는 균등한 지각 깊이 211를 갖는 오브젝트를 의미하며 이런 오브젝트는 상대적으로 고정된 자리에 위치한다. 균등한 지각 깊이 211를 갖는 오브젝트는 오브젝트의 모든 부분이 같은 값의 지각 깊이 211를 갖음을 의미한다. 상대적으로 고정된 위치를 갖는 오브젝트는 영상의 스트림이나 시퀀스에서 한 영상에서 다른 영상으로 X축 213 혹은 Z축 217 을 따라 거의 이동이 없는 오브젝트를 의미한다.Processing
처리 오브젝트 214는 처리 오브젝트 214에 인접하는 처리 영상 212의 일부보다 더 큰 값의 지각 깊이 211를 가질 수 있다. 예컨대, 처리 오브젝트 214는 처리 영상 212 위로 떠오르거나 그 위를 맴돌 수 있다.The
처리 오브젝트 214의 예는 자막, 스포츠 경기의 득점 게시판, 방송국 상징 로고와 같은 애니메이션이나 비 애니메이션으로 만든 로고, 처리 영상 212의 상대적으로 고정된 위치에서 나타날 수 있는 광고나 최신 뉴스를 위한 화면 이동 문자(scrolling text)와 같은 화면 이동 배너(scrolling banner)나 텍스트 필드(text field)를 포함할 수 있다. 또 다른 예를 들자면, 지각 깊이 211을 처리 오브젝트 214에게 공급하기 위하여 처리 오브젝트 214 영역 내부의 픽셀들을 흐릿하게 하고 유연하게 해서 질감을 만들어내고 처리 영상 212 안의 모든 처리 오브젝트 214 들이 구분되는 것을 나타낼 수 있다. Examples of processing objects 214 include animations or non-animated logos such as subtitles, scoreboards for sporting events, logo emblems for broadcast stations, animations that can appear at relatively fixed locations in processed
도 3에서는 디스플레이 시스템 100의 블록 다이어그램 예시가 나타나 있다. 디스플레이 시스템 100은 제 1 디바이스 102, 통신 경로 104, 제 2 디바이스 106을 포함할 수 있다. 제 1 디바이스 102는 제 1 디바이스 전송 308 내 정보를 통신 경로 104를 거쳐 제 2 디바이스 106로 보낼 수 있다. 제 2 디바이스 106은 제 2 디바이스 전송 310 내 정보를 통신 경로 104를 거쳐 제 1 디바이스 102로 보낼 수 있다.An example of a block diagram of the
설명을 위해, 디스플레이 시스템 100은 클라이언트 디바이스(client device)인 제 1 디바이스 102를 포함하는 것으로 나타나 있지만, 디스플레이 시스템 100는 다른 종류의 제 1 디바이스 102를 가질 수 있다. 예컨대, 제 1 디바이스 102는 디스플레이 인터페이스를 포함하는 서버일 수 있다.For purposes of illustration,
또한 설명을 위해, 디스플레이 시스템 100은 제 2 디바이스 106를 서버로 갖는 것으로 나타나 있지만, 디스플레이 시스템 100은 다른 종류의 제 2 디바이스 106을 가질 수 있다. 예컨대, 제 2 디바이스는 클라이언트 디바이스(client device)일 수 있다.Also for purposes of explanation, the
본 발명 실시 예를 간편히 설명하기 위해, 제 1 디바이스 102는 클라이언트 디바이스로 설명되며 제 2 디바이스 106은 서버 디바이스로 설명될 것이다. 본 발명은 장치의 종류를 한정하지 아니한다. 이러한 설명은 본 발명의 실시 예에 불과하다.To simplify description of embodiments of the present invention, the
제 1 디바이스 102는 제 1 제어부 312, 제 1 저장부 314, 제 1 통신부 316, 제1 사용자 인터페이스 318을 포함할 수 있다. 제 1 제어부 312는 제 1 제어 인터페이스 322를 포함할 수 있다. 제 1 제어부 312는 디스플레이 시스템 100의 정보를 제공하기 위하여 제 1 소프트웨어 326를 실행할 수 있다.The
제 1 제어부 312는 다양한 방식으로 실행될 수 있다. 예컨대, 제 1 제어부 312는 프로세서, 주문형 반도체(application specific integrated circuit: ASIC), 내장형 프로세서, 마이크로 프로세서, 하드웨어 제어 논리 연산(control logic), 하드웨어 유한 상태 기계(finite state machine: FSM), 디지털 신호 프로세서(digital signal processor: DSP) 혹은 이들의 조합일 수 있다. 제 1 제어 인터페이스 322는 제 1 제어부 312와 제 1 디바이스 102 내 다른 기능 부들 간의 연결에 사용될 수 있다. 또한, 제 1 제어 인터페이스 322는 외부에서 제 1 디바이스 102로 전해지는 연결에도 사용될 수 있다.The
제 1 제어 인터페이스 322는 다른 기능 부나 외부 출처(external sources)에서 정보를 수신하거나 다른 기능 부들이나 외부 수신지(external destination)로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 1 디바이스 102 외부의 출처와 수신지를 뜻한다.The first control interface 322 may receive information from other functional units or external sources or may transmit information to other functional units or external destinations. External sources and external destinations are sources and destinations external to the
제 1 제어 인터페이스 322는 다른 방식으로 실행될 수 있으며 제 1 제어 인터페이스 322와 연결된 기능 부나 외부 부서에 따라 다른 실행 방법을 포함할 수 있다. 예컨대, 제 1 제어 인터페이스 322는 압력 센서, 관성 센서, 미세전자기계시스템(a micro-electro mechanical system: MEMS), 광학 회로(optical circuitry), 도파관(waveguides), 무선회로(wireless circuitry), 유선 회로(wireline circuitry) 혹은 이들의 조합으로 실행될 수 있다.The first control interface 322 may be implemented in other manners and may include other implementations depending on the function or external department associated with the first control interface 322. [ For example, the first control interface 322 may include a pressure sensor, an inertial sensor, a micro-electro mechanical system (MEMS), optical circuitry, waveguides, wireless circuitry, wireline circuitry, or a combination thereof.
제 1 저장부 314는 제 1 소프트웨어 326을 저장할 수 있다. 또한, 제 1 저장부 314는 수신되는 영상의 데이터, 이전에 출력된 영상의 데이터, 음향 파일 혹은 이들의 조합과 같은 관련 정보를 저장할 수 있다.The
제 1 저장부 314는 휘발성 메모리, 비 휘발성 메모리, 내부 메모리, 외부 메모리 혹은 이들의 조합일 수 있다. 예컨대, 제 1 저장부 314는 비 휘발성 RAM, 플래쉬 메모리, 디스크 기억장치(disk storage)와 같은 비 휘발성 저장장치 이거나 SPAM(static random access memory)과 같은 휘발성 저장 장치일 수 있다.The
제 1 저장부 314는 제 1 저장 인터페이스 324를 포함할 수 있다. 제 1 저장 인터페이스 324는 제 1 디바이스 102의 다른 기능 부들 간의 연결에 사용될 수 있다. 또한, 제 1 저장 인터페이스 324는 제 1 디바이스 102로의 외부 연결에 사용될 수 있다. The
제 1 저장 인터페이스 324는 다른 기능 부들이나 외부 출처로부터 정보를 수신하거나 다른 기능 부들이나 외부 수신지로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 1 디바이스 102의 외부에 있는 출처와 수신지를 의미한다.The
제 1 저장 인터페이스 324는 제 1 저장부 314와 상호 작동하는 다른 기능 부나 외부 부서의 유형에 따라 다른 실행 방식을 포함할 수 있다. 제 1 저장 인터페이스 324는 제 1 제어 인터페이스 322의 실행과 유사한 기술 및 방식으로 실행될 수 있다.The
제 1 통신부 316은 제 1 디바이스 102로 혹은 그로부터의 외부 연결을 할 수 있게 한다. 예컨대, 제 1 통신부 316은 제 1 디바이스 102가 첨부한 도 1의 제 2 디바이스 106, 주변 장치 및 컴퓨터 데스크톱과 같은 부속 장치, 그리고 통신 경로 104와 연결되는 것을 허가할 수 있다. The
또한, 제 1 통신부 316은 통신 중심부의 역할을 하면서 제 1 디바이스 102가 통신 경로 104의 일부로서 기능하고 통신 경로 104의 끝 단이나 단말 부에 한정되지 않게끔 할 수 있다. 제 1 통신부 316은 통신 경로 104와의 상호 작용을 위해 초소형전자기술(microelectronics) 혹은 안테나와 같은 능동 구성(active components)과 수동 구성(passive components)를 포함할 수 있다.Also, the
제 1 통신부 316은 제 1 통신 인터페이스 328을 포함할 수 있다. 제 1 통신 인터페이스 328은 제 1 통신부 316과 제 1 디바이스 102 내 다른 기능 부들간 통신에 사용될 수 있다. 제 1 통신 인터페이스 328은 다른 기능 부들로부터 정보를 수신하거나 다른 기능 부들로 정보를 전송할 수 있다.The
제 1 통신 인터페이스 328은 제 1 통신부와 연결된 기능 부들에 따라 여러방식의 구현을 포함할 수 있다. 제 1 통신 인터페이스 328은 제 1 제어 인터페이스 322의 실행 방법과 유사한 기술 및 방식으로 구현될 수 있다.The first communication interface 328 may include various implementations depending on the functional units connected to the first communication unit. The first communication interface 328 may be implemented in a similar manner and in a manner similar to that of the first control interface 322.
제 1 사용자 인터페이스 318은 사용자(미도시)가 제 1 디바이스 102와 연결되고 상호 작용할 수 있게 한다. 제 1 사용자 인터페이스 318은 입력 장치와 출력 장치를 포함할 수 있다. 제 1 사용자 인터페이스 318의 입력 장치의 예에는 데이터와 통신 입력을 제공하기 위한 키패드, 터치패드, 소프트키(soft-key), 키보드, 마이크, 원거리 신호를 수신하기 위한 적외선 센서 혹은 이들의 조합이 포함될 수 있다.A first user interface 318 allows a user (not shown) to connect and interact with the
제 1 사용자 인터페이스 318은 제 1 디스플레이 인터페이스 330을 포함할 수 있다. 제 1 디스플레이 330은 디스플레이, 프로젝터, 비디오 스크린, 스피커 혹은 이들의 조합을 포함할 수 있다.The first user interface 318 may include a
제 1 제어부 312는 디스플레이 시스템 100이 생성한 정보를 표시하기 위해 제 1 사용자 인터페이스 318을 실행할 수 있다. 또한, 제 1 제어부 312는 디스플레이 시스템 100의 다른 기능을 위해 제 1 소프트웨어 326을 실행할 수 있다. 더 나아가, 제 1 제어부 312는 제 1 통신부 316을 통해 통신 경로 104와의 상호작용하기 위하여 제 1 소프트웨어 326을 실행할 수 있다.The
제 2 디바이스 106은 다양한 장치 예에서 본 발명을 제 1 디바이스 102와 함께 실행하기 위해 최적화될 수 있다. 제 2 디바이스 106은 제 1 디바이스 102와 비교하여 추가적인 혹은 더 높은 성능의 처리 능력을 제공할 수 있다. 제 2 디바이스 106은 제 2 제어부 334, 제 2 통신부 336 그리고 제 2 사용자 인터페이스 338을 포함할 수 있다.The
제 2 사용자 인터페이스 338은 사용자(미도시)가 제 2 디바이스 106와 연결되고 상호작용할 수 있게 한다. 제 2 사용자 인터페이스 338은 입력 장치와 출력 장치를 포함할 수 있다. 제 2 사용자 인터페이스 338의 입력 장치의 예는 데이터와 통신 입력물을 제공하기 위한 키패드, 터치패드, 소프트키, 키보드, 마이크 혹은 이들의 조합을 포함할 수 있다. 제 2 사용자 인터페이스 338의 출력 장치의 예는 제 2 디스플레이 인터페이스 340을 포함할 수 있다. 제 2 디스플레이 인터페이스 340은 디스플레이, 프로젝터, 비디오 스크린, 스피커 혹은 이들의 조합을 포함할 수 있다.A second user interface 338 allows a user (not shown) to connect and interact with the
제 2 제어부 334는 디스플레이 시스템 100의 제 2 디바이스 106의 정보를 제공하기 위해 제 2 소프트웨어 342를 실행할 수 있다. 제 2 소프트웨어 342는 제 1 소프트웨어와 연동되어 작동할 수 있다. 제 2 제어부 334는 제 1 제어부 312와 비교하여 추가적인 성능을 제공할 수 있다.The
제 2 제어부 334는 정보를 표시하기 위해 제 2 사용자 인터페이스 338을 동작할 수 있다. 또한, 제 2 제어부 334는 통신 경로 104를 통해 제 1 디바이스 102와 통신하도록 제 2 통신부 336을 동작시키는 것을 포함하여, 디스플레이 시스템 100의 다른 기능들을 위해 제 2 소프트웨어 342를 실행할 수 있다. The
제 2 제어부 334는 다양한 방식으로 실행될 수 있다. 예컨대, 제 2 제어부 334는 프로세서, 내장형 프로세서, 마이크로프로세서, 하드웨어 제어 연산 논리, 하드웨어 유산 상태 기계(FSM), 디지털 신호 프로세서(DSP) 혹은 이들의 조합일 수 있다.The
제 2 제어부 334는 제 2 제어 인터페이스 344를 포함할 수 있다. 제 2 제어 인터페이스 344는 제 2 제어부 334와 제 2 디바이스 106 내 다른 기능 부들간 통신을 위해 사용될 수 있다. 또한, 제 2 제어 인터페이스 344는 제 2 디바이스 106의 외부와 통신에 사용될 수 있다.The
제 2 제어 인터페이스 344는 다른 기능 부들이나 외부 출처로부터 정보를 수신하거나 다른 기능 부들이나 외부 수신지로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 2 디바이스 106 외부의 출처와 수신지를 뜻한다.The second control interface 344 may receive information from other functionalities or from external sources or may transmit information to other functionalities or external destinations. External sources and external destinations refer to sources and destinations external to the
제 2 제어 인터페이스 344는 다양한 방식으로 실행될 수 있으며 제 2 제어 인터페이스 344와 연결된 다른 기능 부나 외부 부서에 따라 다른 실행 방법을 포함할 수 있다. 예컨대, 제 2 제어 인터페이스 344는 압력 센서, 관성 센서, 마이크로 전자 기계 시스템(MEMS), 광학 회로, 도파관(waveguides), 무선 회로, 유선 회로, 혹은 이들의 조합으로 실행될 수 있다.The second control interface 344 may be implemented in a variety of ways and may include other implementations depending on other functions or external departments connected to the second control interface 344. [ For example, the second control interface 344 may be implemented with a pressure sensor, an inertial sensor, a microelectromechanical system (MEMS), an optical circuit, waveguides, a wireless circuit, a wire circuit, or a combination thereof.
제 2 저장부 346은 제 2 소프트웨어 342를 저장할 수 있다. 또한, 제 2 저장부 346은 수신 영상 데이터, 이전에 출력된 영상 데이터, 음향 파일 혹은 이들의 조합과 같은 관련 정보를 저장할 수 있다. 제 2 저장부 346은 제 1 저장부 314를 보완하기 위해 추가적인 저장 공간을 제공할 정도의 크기일 수 있다. The second storage unit 346 may store the second software 342. In addition, the second storage unit 346 may store related information such as received image data, previously output image data, sound files, or a combination thereof. The second storage unit 346 may be large enough to provide additional storage space for supplementing the
설명을 위해 제 2 저장부 346는 단일 요소로 나타나 있지만, 제 2 저장부 346은 저장 요소가 분산된 형태일 수 있다. 또한, 설명을 위해, 디스플레이 시스템 100은 단일 계층 저장 시스템인 제 2 저장부 346을 포함하는 것으로 그려져 있지만, 디스플레이 시스템 100은 다른 설정방식으로 제 2 저장부 346을 가질 수 있다. 예컨대, 제 2 저장부 346은 각기 다른 레벨의 캐싱(caching), 메인 메모리, 회전 기억 장치, 혹은 오프라인 저장 장치를 포함하는 계층 메모리 체계를 형성하는 각기 다른 저장 기술로 이루어질 수 있다.Although the second storage 346 is shown as a single element for purposes of illustration, the second storage 346 may be in the form of a distributed storage element. Also, for purposes of discussion, the
제 2 저장부 346은 휘발성 메모리, 비 휘발성 메모리, 내부 메모리, 외부 메모리 혹은 이들의 조합일 수 있다. 예컨대, 제 2 저장부 346은 비 휘발성 RAM(non-volatile random access memory: NVRAM), 플래쉬 메모리 그리고 디스크 기억 저장 장치와 같은 비 휘발성 저장 장치이거나 SRAM과 같은 휘발성 저장 장치일 수 있다.The second storage unit 346 may be a volatile memory, a non-volatile memory, an internal memory, an external memory, or a combination thereof. For example, the second storage unit 346 may be a non-volatile storage device such as a non-volatile random access memory (NVRAM), a flash memory, and a disk storage device, or a volatile storage device such as an SRAM.
제 2 저장부 346은 제 2 저장 인터페이스 348을 포함할 수 있다. 제 2 저장 인터페이스 348은 제 2 디바이스 106 내 다른 기능 부들간 통신을 위해 사용될 수 있다. 또한 제 2 저장 인터페이스 348는 제 2 디바이스 106으로의 외부 연결을 위해 사용될 수 있다.The second storage unit 346 may include a
제 2 저장 인터페이스 348은 다른 기능 부들 혹은 외부 출처들로부터 정보를 수신하거나 다른 기능 부들 혹은 외부 수신지로 정보를 전송할 수 있다. 외부 출처와 외부 수신지는 제 2 디바이스 106 외부의 출처와 수신지를 뜻한다.The
제 2 저장 인터페이스 348은 제 2 수신 저장부 346과 연결되는 다른 기능 부들이나 외부 기능부에 따라 다른 실행방법들을 포함할 수 있다. 제 2 저장 인터페이스 348은 제 2 제어 인터페이스 344의 실행방법과 유사한 기술이나 방식으로 실행될 수 있다.The
제 2 통신부 336은 제 2 디바이스 106로 또는 그로부터의 외부 연결을 가능하게 할 수 있다. 예컨대, 제 2 통신부 336은 제 2 디바이스 106가 통신 경로 104를 통해 제 1 디바이스 102와 통신하는 것을 허가할 수 있다.And the
또한, 제 2 통신부 336는 통신 중심부로서 기능을 하며 제 2 디바이스 106가 통신 경로 104의 일부로서 기능 할 수 있도록 하고 통신 경로 104의 끝 단이나 단말 부로 한정되지 않게끔 할 수 있다. 제 2 통신부 336은 통신 경로 104와의 상호 작용을 위해 초소형전자기술(microelectronics)이나 안테나와 같은 능동 및 수동 구성요소(active and passive components)들을 포함할 수 있다. Also, the
제 2 통신부 336은 제 2 통신 인터페이스 350을 포함할 수 있다. 제 2 통신 인터페이스 350은 제 2 통신부 336과 제 2 디바이스 106 내 다른 기능 부들 간 통신에 사용될 수 있다. 제 2 통신 인터페이스 350은 다른 기능 부들로부터 정보를 수신하거나 다른 기능 부들에게 정보를 전송할 수 있다.The
제 2 통신 인터페이스 350은 제 2 통신부 336와 연결된 기능 부에 따라 다른 실행방법을 포함할 수 있다. 제 2 통신 인터페이스 350은 제 2 통신 인터페이스 344의 실행방법과 유사한 기술과 방식으로 실행될 수 있다.The second communication interface 350 may include another execution method depending on the function unit connected to the
제 1 통신부 316은 통신 경로 104에 연결되어 제 1 디바이스 전송 308 으로 제 2 디바이스 106로 정보를 보낸다. 제 2 디바이스 106은 제 2 통신부 336 에서 통신 경로 104의 제 1 디바이스 전송 308으로부터 정보를 수신할 수 있다.The
제 2 통신부 336은 통신 경로 104에 연결되어 제 2 디바이스 전송 310 으로 제 1 디바이스 102로 정보를 보낸다. 제 1 디바이스 102는 제 1 통신부 316 에서 통신 경로 104의 제 2 디바이스 전송 310으로부터 정보를 수신할 수 있다. 디스플레이 시스템 100은 제 1 제어부 312, 제 2 제어부 334 혹은 이들의 조합에 의해 실행될 수 있다.The
설명을 위해, 제 2 디바이스 106는 제 2 사용자 인터페이스 338, 제 2 저장부 346, 제 2 제어부 334 그리고 제 2 통신부를 포함하는 구획으로 나타났지만, 제 2 디바이스 106은 다른 형태의 구획을 가질 수 있다. 예컨대, 제 2 소프트웨어 342는 그 기능의 일부 혹은 전부가 제 2 제어부 334와 제 2 통신부 336에 존재할 수 있도록 다르게 구획될 수 있다. 또한, 제 2 디바이스 106은 내용의 명료성을 위해 도 3에서 설명되지 않은 다른 기능 부들을 포함할 수 있다.For purposes of illustration, the
제 1 디바이스 102 내 기능 부들은 다른 기능 부들과는 별개로 독립적으로 작동할 수 있다. 제 1 디바이스 102는 제 2 디바이스 106 및 통신 경로 104와는 별개로 독립적으로 작동할 수 있다. The functional units in the
제 2 디바이스 106 내 기능 부들은 다른 기능 부들과는 별개로 독립적으로 작동할 수 있다. 제 2 디바이스 106은 제 1 디바이스 102 및 통신 경로 104와는 별개로 독립적으로 작동할 수 있다.The functional units in the
설명을 위해, 디스플레이 시스템 100은 제 1 디바이스 102와 제 2 디바이스 102의 동작으로 설명되었다. 여기서 제 1 디바이스 102와 제 2 디바이스 106은 디스플레이 시스템 100의 모든 모듈과 기능을 작동시킬 수 있는 것으로 이해될 수 있다.For illustrative purposes, the
도 4는 디스플레이 시스템 100의 제어 흐름을 나타내고 있다. 디스플레이 시스템 100은 영상 시퀀스 402를 포함할 수 있다. 영상 시퀀스 402는 디바이스에 표시될 시리즈의 영상이다. 예컨대, 영상 시퀀스 402는 제 1 기간(first time period)에 표시될 제 1 영상, 제 2 기간(second time period)에 표시될 제 2 영상, 제 3 기간(third time period)에 표시될 제 3 영상.. 등을 포함할 수 있다. 제 1 기간, 제 2 기간, 제 3 기간은 다른 시간 혹은 다른 타임 슬롯(time slot)으로 정의되며 서로 다른 기간이다. 영상 시퀀스 402는 제 1 디바이스 102 상에 표시되기 위해 처리될 수 있다.Fig. 4 shows a control flow of the
영상 시퀀스 402는 이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408을 포함할 수 있다. 현재 입력 영상 406은 표시되기 위해 처리된 영상 시퀀스 402 속 영상으로 정의된다. 이전 입력 영상 404는 현재 입력 영상 406에 바로 앞서 표시되기 위해 처리된 영상이다. 다음 입력 영상 408은 현재 입력 영상 406 바로 다음에 표시되기 위해 처리될 영상이다. The video sequence 402 may include a previous input image 404, a
설명을 위해 디스플레이 시스템 100은 이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408을 포함하는 영상 시퀀스 402를 포함하는 것으로 나타나 있지만, 영상 시퀀스 402가 포함하는 영상의 수는 다를 수 있다. 예컨대, 영상 시퀀스 402는 이전 입력 영상 404 이전의 하나 이상의 영상들, 다음 입력 영상 408 이후의 하나 이상의 영상들 혹은 이들의 조합을 포함할 수 있다. 또 다른 예를 들면, 영상 시퀀스 402는 이전 입력 영상 404 이전의 영상들 혹은 다음 입력 영상 408 이후의 영상들만을 포함할 수 있다.For illustrative purposes, the
이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408은 이전 입력 픽셀 410, 현재 입력 픽셀들 412 그리고 다음 입력 픽셀 414를 각각 포함할 수 있다. 이전 입력 픽셀 410, 현재 입력 픽셀들 412 그리고 다음 입력 픽셀 414는 이전 입력 영상 404, 현재 입력 영상 406, 그리고 다음 입력 영상 408을 각각 생성해내는데 쓰이는 개별 픽셀들이다.The previous input image 404, the
디스플레이 시스템 100은 영상 깊이 맵 416(image depth map)을 포함할 수 있다. 영상 깊이 맵 416은 한 영상 속 각각의 픽셀에 대한 깊이 정보를 나타내는 맵이다. 영상 깊이 맵 416은 각각의 현재 입력 픽셀들 412에 대한 영상 픽셀 깊이(image pixel) 418의 맵일 수 있다. 영상 픽셀 깊이 418은 영상의 지각 거리 혹은 지각 깊이의 측정 값이다. 예컨대, 현재 입력 픽셀들 412중 첫 번째 픽셀의 영상 픽셀 깊이 418 값이 현재 입력 픽셀들 412의 두 번째 픽셀의 그 값보다 더 클 경우, 현재 입력 픽셀들 412의 첫 번째 픽셀은 현재 입력 픽셀들 412의 두 번째 픽셀보다 더 가깝게 나타날 수 있다.The
디스플레이 시스템 100은 픽셀 모션 모듈 420을 포함할 수 있다. 픽셀 모션 모듈 420은 영상 시퀀스들을 가로질러 픽셀을 추적하고 픽셀의 순간 모션을 계산한다. 순간 모션이란 영상 시퀀스 혹은 시리즈 내에서 한 영상으로부터 다음 영상으로 특정 픽셀의 장소나 위치의 변화를 뜻한다. 픽셀 모션 모듈 420은 영상 시퀀스 402를 수신할 수 있다. 픽셀 모션 모듈 420은 선택 가능하다.
픽셀 모션 모듈 420은 모션 벡터 (motion vector) 422를 계산할 수 있다. 모션 벡터 422는 픽셀의 순간 동작을 나타내는 정보이다. 모션 벡터 422는 현재 입력 픽셀들 412의 순간 모션의 측정 값이다. 예컨대, 모션 벡터 422는 FIG. 2의 X축 213과 FIG. 2의 X축 217을 따른 변화, 혹은 순간 모션의 크기와 방향을 나타내는 벡터로서 측정될 수 있다. 모션 벡터 422의 계산은 선택 가능하다.The pixel motion module 420 may calculate a motion vector 422. The motion vector 422 is information indicating an instantaneous operation of the pixel. The motion vector 422 is a measure of the instantaneous motion of the
또 다른 예에서, 픽셀 모션 모듈 420은 이전 입력 영상 404 속 이전 입력 픽셀 410중 대응되는 하나의 픽셀, 다음 입력 영상 408 속 다음 입력 픽셀 중 대응되는 하나의 픽셀 혹은 이들의 조합을 식별하여 영상 시퀀스 402 속 현재 입력 픽셀들 412를 추적할 수 있다.In another example, the pixel motion module 420 identifies a corresponding one of the previous input pixels 410 in the previous input image 404, a corresponding one of the next input pixels in the next input image 408, or a combination thereof to generate the image sequence 402 The
픽셀 모션 모듈 420은 다양한 다른 방식을 통해 현재 입력 픽셀들을 위한 모션 벡터 422를 계산할 수 있다. 예컨대, 픽셀 모션 모듈 420은 블록 매칭 알고리즘(block matching algorithms), 위상 상관 방법(phase correlation methods), 순환적 알고리즘(recursive algorithms)을 사용할 수 있다. 또 다른 예에서, 픽셀 모션 모듈 420은 평균 자승 오차(mean squared error: MSE), 절대 차이의 합(sum of absolute differences: SAD) 혹은 평균 절대 차(mean absolute differences: MAD)와 같은 다양한 방식을 통해 픽셀 모션을 확인할 수 있다.The pixel motion module 420 may calculate the motion vector 422 for the current input pixels in various other ways. For example, the pixel motion module 420 may use block matching algorithms, phase correlation methods, and recursive algorithms. In another example, the pixel motion module 420 may be used in various ways such as a mean squared error (MSE), a sum of absolute differences (SAD), or mean absolute differences (MAD) You can see the pixel motion.
디스플레이 시스템 100은 오브젝트 검출 모듈 424를 포함할 수 있다. 오브젝트 검출 모듈 424는 영상 속 오브젝트를 검출하고 특정 지역의 순간 모션 426을 갖는 오브젝트를 검출한다. 특정 지역의 순간 모션 426은 영상 내 제한되거나 특정된 영역이나 부분 내에서 발생하는 모션을 뜻한다. 이러한 기능들 각각은 이후 설명에서 자세히 기술될 것이다. 오브젝트 검출 모듈 424는 영상 시퀀스 402를 수신할 수 있다. 선택적으로, 오브젝트 검출 모듈 424는 모션 벡터 422를 수신할 수 있다.
오브젝트 검출 모듈 424는 입력 오브젝트 픽셀들 428을 식별할 수 있다. 입력 오브젝트 픽셀들 428은 한 영상 속 오브젝트나 시리즈의 영상 속 오브젝트를 나타내는 픽셀을 뜻한다. 오브젝트 오브젝트 픽셀들 428은 현재 입력 영상 406, 이전 입력 영상 404, 다음 입력 영상 408 혹은 이들의 조합 내의 입력 오브젝트 430을 나타낼 수 있다.The
입력 오브젝트 430은 영상 스트림이나 시퀀스 내 상대적으로 고정된 위치에 있는 오브젝트를 뜻한다. 상대적으로 고정된 위치를 갖는 오브젝트는 영상 스트림이나 시퀀스 내 X축 213이나 Z축 217을 따라 거의 혹은 전혀 이동하지 않는 오브젝트를 뜻한다. 예컨대, 입력 오브젝트 430은 현재 입력 영상 406, 이전 입력 영상 404, 다음 입력 영상 408 혹은 이들의 조합 내에서 상대적으로 고정된 위치에 나타나는 일련 혹은 일단의 자막용 문자, 스포츠 경기의 점수판, TV 방송국 로고와 같은 애니메이션으로 만든 혹은 비 애니메이션으로 만든 로고, 광고나 최신 뉴스를 위한 화면 이동 문자와 같은 이동 배너나 텍스트 필드 등을 포함할 수 있다. 입력 오브젝트 430은 영상 스트림이나 시퀀스 속 다수의 순차적 영상들을 통해 나타나는 오브젝트일 수 있다.The input object 430 refers to an object at a relatively fixed position in a video stream or sequence. An object with a relatively fixed position is an object that moves little or no along the
디스플레이 시스템 100은 오브젝트 조정 모듈 432를 포함할 수 있다. 오브젝트 조정 모듈 432는 현재 입력 영상 406의 전체 혹은 일부분의 입력 오브젝트 픽셀들 428의 오검출을 줄이거나 막는 역할을 한다. 이런 기능들 각각은 이후 자세히 설명될 것이다 오브젝트 조정 모듈 432는 선택 가능하다.
디스플레이 시스템 100은 오브젝트 깊이 모듈 434를 포함할 수 있다. 오브젝트 깊이 모듈 434는 깊이 가중치(depth weight)를 계산하고, 깊이 가중치를 갖고 영상 속 오브젝트의 깊이를 계산하는 역할을 한다. 이러한 기능들 각각은 이후 자세히 설명될 것이다.
오브젝트 깊이 모듈 434는 오브젝트 픽셀 깊이 436를 생성할 수 있다. 오브젝트 픽셀 깊이 436은 입력 오브젝트 픽셀들 428의 지각 거리 혹은 지각 깊이 211의 측정 값을 뜻한다.The
디스플레이 시스템 100은 영상 변환 모듈 438을 포함할 수 있다. 영상 변환 모듈 438은 지각 깊이 211을 갖는 영상을 생성해내는 역할을 한다. 영상 변환 모듈 438은 제 1 디바이스 102에 표시를 위해 영상 깊이 맵 416을 현재 입력 영상 406에 인가하여 현재 입력 영상 406에서 처리 영상 212를 생성해낼 수 있다.
영상 변환 모듈 438은 영상 픽셀 깊이 418을 현재 입력 픽셀들 412에 인가하여 현재 처리 픽셀 442를 생성할 수 있다. 현재 처리 픽셀 442는 지각 깊이 211을 갖도록 처리된 픽셀을 뜻한다. 처리 영상 212는 현재 처리 픽셀 442로부터 생성해낼 수 있다.The image transformation module 438 may apply the
영상 변환 모듈 438은 오브젝트 픽셀 깊이 436을 입력 오브젝트 픽셀들 428에 인가하여 처리 오브젝트 픽셀 444를 생성할 수 있다. 처리 오브젝트 픽셀 444는 지각 깊이 211을 갖는 영상 속 오브젝트를 나타내는 픽셀을 뜻한다. 처리 오브젝트 214는 처리 오브젝트 픽셀 444로부터 생성해 낼 수 있다.The image transformation module 438 may apply the object pixel depth 436 to the
디스플레이 시스템 100은 영상 디스플레이 모듈 440을 포함할 수 있다. 영상 디스플레이 모듈은 디바이스 상에 영상을 표시하는 역할을 한다. 영상 디스플레이 모듈 440은 제 1 디바이스 102 상에 처리 영상 212을 표시할 수 있다.
디스플레이 시스템 100은 제 1 디바이스 혹은 도 1의 제 2 디바이스 106 상에서 아니면 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치한 상태로 실행될 수 있다. 예컨대, 제 2 디바이스 106은 현재 입력 영상 406, 이전 입력 영상 404, 다음 입력 영상 408 혹은 그 조합을 포함하는 영상 시퀀스 402를 도3의 제 2 디바이스 전송 310를 통해 도3의 통신 경로 104 상에서 전송할 수 있다. 제 1 디바이스 102는 도 3의 제 1 통신부를 이용해 영상 시퀀스 402를 수신할 수 있다. 도 3의 제 1 통신 인터페이스 328은 도 3의 제 1 저장부, 도 3의 제 1 제어부 혹은 모두에게 상기 영상 스트림을 전송한다.The
도 3의 제 1 소프트웨어 326 혹은 제 1 제어부 312는 픽셀 모션 모듈 420, 오브젝트 검출 모듈 424, 오브젝트 조정 모듈 432, 오브젝트 깊이 모듈 434, 영상 변환 모듈 438 그리고 영상 디스플레이 모듈 440을 실행할 수 있다.3 may execute a pixel motion module 420, an
제 1 제어 인터페이스 332 혹은 제 1 저장 인터페이스 324는 처리 영상 212를 도 3의 제 1 디스플레이 인터페이스 330으로 전송할 수 있다. 제 1 디스플레이 인터페이스 330은 처리 영상 212를 수신하고 표시할 수 있다.The first control interface 332 or the
디스플레이 시스템 100은 모듈 기능들이나 명령들을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 2 소프트웨어 342는 픽셀 모션 모듈 420이나 오브젝트 조정 모듈 432를 포함할 수 있다. 각각의 모듈들은 다른 모듈들과는 별개로 독립적으로 작동할 수 있다.
또한, 한 모듈에서 생성된 데이터는 서로 직접적으로 연결되지 않았어도 다른 모듈이 사용할 수 있다. 예컨대, 오브젝트 깊이 모듈 434는 영상 시퀀스 402를 수신할 수 있다.Also, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the
도 5는 오브젝트 검출 모듈 424의 도면이다. 오브젝트 검출 모듈 424는 오브젝트 식별 모듈 502를 이용하여 현재 입력 픽셀들 412에서 입력 오브젝트 픽셀들을 식별할 수 있다. 오브젝트 식별 모듈 502는 픽셀의 특성의 차이점을 기반으로 영상 속 오브젝트를 나타내는 픽셀들을 식별하는 역할을 한다. 오브젝트 식별 모듈 502는 픽셀의 특성상 차이점을 기반으로 현재 입력 픽셀들 412에서 입력 오브젝트 픽셀들 428을 식별할 수 있다.5 is a diagram of the
픽셀의 특성들은 특정 픽셀의 성질이나 특징을 뜻한다. 예컨대, 픽셀의 특성들은 모션 벡터 422, 현재 입력 픽셀들 412의 색상, 현재 입력 픽셀들 412의 휘도, 혹은 현재 입력 픽셀들 412의 다른 성질이나 특징을 포함할 수 있다.The properties of a pixel refer to the properties or characteristics of a particular pixel. For example, the characteristics of the pixel may include the motion vector 422, the color of the
오브젝트 식별 모듈 502는 현재 입력 픽셀들 412의 픽셀 특성상의 차이점 조합을 기반으로 입력 오브젝트 픽셀들을 식별할 수 있다. 예컨대, 오브젝트 검출 모듈 424는 모션 벡터 422, 색상, 현재 입력 픽셀들 412 중 인접한 픽셀들 간 혹은 현재 입력 픽셀들 412의 그룹들간 휘도의 차이점을 기반으로 아니면 유사하게는 현재 입력 영상 406 속 윤곽선(edge) 검출을 통해 입력 오브젝트 픽셀들 428을 식별할 수 있다.The object identification module 502 can identify input object pixels based on a difference combination on the pixel characteristics of the
구체적인 예를 들자면, 현재 입력 픽셀들 412의 모션 벡터 422가 현재 입력 픽셀들 412에 인접한 한 픽셀의 모션 벡터 422보다 낮을 경우, 오브젝트 검출 모듈 424는 현재 입력 픽셀들 412중 하나를 입력 오브젝트 픽셀들 428로 식별할 수 있다. 또 다른 구체적 예에서, 현재 입력 픽셀들 412중 인접한 픽셀들이나 현재 입력 픽셀들 412의 인접한 부분(segment)들에서 강하거나 날카로운 윤곽선(strong of sharp edge)이 검출되면, 오브젝트 검출 모듈은 현재 입력 픽셀들 412 중 하나를 입력 오브젝트 픽셀들 428로 식별할 수 있다.For example, if the motion vector 422 of the
오브젝트 검출 모듈 424은 오브젝트 모션 모듈 504를 포함할 수 있다. 오브젝트 모션 모듈 504은 특정 지역의 순간적인 모션(localized temporal motion) 426을 갖는 픽셀을 식별하는 역할을 한다. 예컨대, 오브젝트 모션 모듈 504는 입력 오브젝트 픽셀들 428로 식별된 입력 오브젝트 픽셀들 428의 모션 벡터 422를 색상, 휘도, 윤곽선 검출 및 그 밖의 특징들을 기반으로 확인할 수 있다. 입력 오브젝트 픽셀들 428의 모션 벡터 422가 작고, 연속적이고, 방향성이 없고, 다수의 영상들을 걸쳐서 똑같은 크기의 제한된 공간에 한정되어 있거나, 혹은 이들의 조합일 경우, 오브젝트 모션 모듈 504는 입력 오브젝트 픽셀들 428이 특정 지역의 순간적인 모션 426을 포함하는 것으로 판단할 수 있다. 특정 지역의 순간적인 모션 426을 포함하는 입력 오브젝트 430의 예시들은 화면 이동 문자(scrolling text), 애니메이션으로 만든 로고나 심볼 혹은 움직이는 광고와 같은 오브젝트들을 포함할 수 있다.The
디스플레이 시스템 100은 도 1의 제 1 디바이스 102 혹은 도 1의 제 2 디바이스 106 상이나 아니면 제 1 디바이스 102와 제 2 디바이스 106로 분할된 방식으로 실행될 수 있다. 예컨대, 도 3의 제 2 저장부는 오브젝트 식별 모듈 502를 저장할 수 있으며 제 1 제어부 312는 오브젝트 식별 모듈 502를 실행할 수 있다.The
디스플레이 시스템 100은 모듈의 기능들과 명령들을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 오브젝트 식별 모듈 502를 포함할 수 있으며 제 1 저장부 314는 오브젝트 모션 모듈 504를 포함할 수 있다. 각각의 모듈은 다른 모듈들과는 별개로 독립적으로 동작할 수 있다.The
또한, 한 모듈에서 생성된 데이터는 서로 직접 연결되어 있지 않아도 다른 모듈이 사용할 수 있다. 예컨대, 오브젝트 모션 모듈 504는 영상 시퀀스 402를 수신할 수 있다.In addition, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the object motion module 504 may receive the video sequence 402.
도 6은 오브젝트 조정 모듈 432를 나타내는 도이다. 오브젝트 조정 모듈 432는 영상 조정 모듈 604과 로컬 조정 모듈 606을 이용하여 입력 오브젝트 픽셀들 428의 오검출을 방지할 수 있다. 오검출은 한 지역 내 픽셀의 부적합하거나 부정확한 검출 또는 식별을 뜻한다. 예컨대, 입력 오브젝트 픽셀 428의 오검출은 정지영상 혹은 스틸샷과 같이 현재 입력 영상 406이 나타내는 장면에서 움직임이 거의 혹은 전혀 없을 때 발생할 수 있다.6 is a diagram showing an
영상 조정 모듈 604는 한 영상에서 나타내는 장면의 전체 픽셀 모션과 정보를 기반으로, 전체 영상 속 오브젝트를 나타내는 픽셀의 오검출을 방지하는 역할을 한다. 예컨대, 영상 조정 모듈 604는 영상 모션 평균(image motion average) 608을 영상 모션 임계값(image motion threshold) 610과 비교하여, 영상 속 입력 오브젝트 픽셀들 428을 정확하게 식별하기 위해 현재 입력 영상 406 내에 충분한 모션이 있는지를 판단할 수 있다.The image adjustment module 604 prevents erroneous detection of a pixel representing an object in the entire image based on the entire pixel motion and information of a scene represented by an image. For example, the image adjustment module 604 may compare an image motion average 608 with an image motion threshold 610 to determine if there is sufficient motion within the
영상 모션 평균 608은 한 영상 속 전체 픽셀 모션의 측정 값이다. 예컨대, 영상 조정 모듈 604는 현재 입력 영상 406 내 각 현재 입력 픽셀들 412의 모션벡터 422의 크기 값의 평균을 내어 영상 모션 평균 608을 계산할 수 있다. 또 다른 예에서, 영상 모션 평균 608의 높은 값은 같이 현재 입력 영상 406이 예컨대, 영화나 스포츠 경기의 액션 장면과 같은 높은 수준의 모션을 포함하는 장면을 표현한다고 의미할 수 있다. 이와는 반대로, 영상 모션 평균 608의 낮은 값은 현재 입력 영상 406이 예컨대, 뉴스 방송이나 인터뷰와 같이 낮은 수준의 모션을 포함한다고 의미할 수 있다.The image motion average 608 is a measurement value of the entire pixel motion in one image. For example, the video adjustment module 604 may calculate a video motion average 608 by averaging the magnitude values of the motion vectors 422 of each
영상 모션 임계값 610은 한 영상이 오브젝트를 나타내는 픽셀을 정확히 식별하기 위한 충분한 전체 픽셀 모션을 갖고 있는 시점을 판단하기 위한 임계값를 뜻한다. 예컨대, 영상 모션 임계값 610은 모션이 거의 혹은 전혀 없는 정지 장면을 나타내는 기설정된 값 혹은 퍼센티지(percentage)일 수 있다.The image motion threshold 610 means a threshold for determining when a single image has sufficient overall pixel motion to accurately identify a pixel representing the object. For example, the image motion threshold 610 may be a predetermined value or a percentage indicating a still scene with little or no motion.
영상 모션 평균 608이 영상 모션 임계값 610보다 클 경우, 영상 조정 모듈 604는 현재 입력 영상 406이 입력 오브젝트 픽셀들 428을 정확하기 식별하기 위한 충분한 모션을 가지고 있는지를 판단할 수 있다. 예컨대, 영상 모션 평균 608이 영상 모션 임계값 610보다 크다고 영상 조정 모듈 604가 판단할 경우, 디스플레이 시스템 100은 오브젝트 깊이 모듈 434를 이용하여 입력 오브젝트 픽셀들 428의 오브젝트 픽셀 깊이 436을 계산할 수 있다. 이와는 반대로, 영상 모션 평균 608이 영상 모션 임계값 610보다 낮을 경우, 디스플레이 시스템 100은 오브젝트 픽셀 깊이 436의 계산을 건너뛰고 영상 픽셀 깊이 418을 사용할 수 있다.If the image motion average 608 is greater than the image motion threshold 610, then the image adjustment module 604 may determine whether the
영상 조정 모듈 604는 장면 조정 모듈 612를 포함할 수 있다. 장면 조정 모듈 612는 픽셀의 움직임이 거의 혹은 전혀 없는 영상 속 오브젝트를 나타내는 픽셀을 확인하는 역할을 한다. 장면 조정 모듈 612는 장면 정보 614를 기반으로 현재 입력 영상 406의 입력 오브젝트 픽셀들 428을 확인할 수 있다.The image adjustment module 604 may include a
장면 정보 614는 현재 입력 영상 406이 나타내는 장면의 유형을 설명하는 정보를 뜻한다. 장면 정보 614는 현재 입력 영상 406이 나타내는 장면의 모든 유형을 설명할 수 있다. 예컨대, 장면 정보 614는 홈 쇼핑 네트워크의 장면, 스포츠 방송의 방면 혹은 뉴스 방송일 수 있다.The
장면 조정 모듈 612는 특정 장면 정보들 614을 포함하는 현재 입력 영상 406의 입력 오브젝트 픽셀들 428을 확인할 수 있다. 예컨대, 장면 정보 614가 영상 모션 임계값 610보다 낮은 값의 영상 모션 평균 608을 갖는 장면이지만 입력 오브젝트 430와 공통적으로 연결된 장면일 경우, 장면 조정 모듈 612는 현재 입력 픽셀들 412를 입력 오브젝트 픽셀들 428로 확인할 수 있다. 예컨대, 입력 오브젝트 430과 공통적으로 연결된 장면 정보 614는 자막, 로고, 박스 속 문구나 정보 예를 들어, 홈쇼핑 장소 혹은 뉴스 방송 장면과 같은 장면들을 공통적으로 포함하는 장면을 포함할 수 있다.The
로컬 조정 모듈 606은 픽셀 모션이 거의 혹은 전혀 없는 영상의 특정 영역에 위치한 오브젝트를 나타내는 픽셀들의 오검출을 방지한다. 예컨대, 로컬 조정 모듈 606은 줌 씬(zoom scene) 616 속 오브젝트를 나타내는 픽셀의 오검출을 방지한다. 줌 씬 616은 영상의 일부분 내부 혹은 외부에 포커스를 맞춘 장면을 뜻한다.The
로컬 조정 모듈 606은 로컬 모션 모듈 618을 이용하여 현재 입력 영상 406의 일정 지역에 위치한 영역을 식별할 수 있다. 로컬 모션 모듈 618은 카메라 줌 기능을 사용해 영상의 부분들을 식별하는 역할을 한다. 예컨대, 중심부에서 외부로 먼 방사형 방향을 띄는 현재 입력 픽셀들 412에 대한 모션 벡터 422를 갖는 높은 모션 영역으로 둘러 싸여진, 모션이 거의 또는 전혀 없는 로컬 부분이나 아니면 픽셀의 모션이 거의 혹은 전혀 없는 영역을 식별하여 줌(zoom)을 검출할 수 있다. The
로컬 모션 모듈 618이 줌 씬 616을 검출할 경우, 로컬 조정 모듈 606은 모션이 픽셀 모션이 거의 혹은 전혀 없는 현재 입력 영상 406의 일부에 위치한 입력 오브젝트 픽셀들 428의 오브젝트 픽셀 깊이 436를 계산하는 것을 방지할 수 있다.When the local motion module 618 detects the
디스플레이 시스템 100은 도 1의 제 1 디바이스 102 상 혹은 도 1의 제 2 디바이스 106 상이나 아니면 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치한 상태에서 실행될 수 있다. 예컨대, 도 3의 제 2 저장부 346은 장면 정보 614를 저장할 수 있으며 제 1 제어부 312는 장면 조정 모듈 612를 실행할 수 있다.The
디스플레이 시스템 100은 모듈 기능들과 명령을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 영상조정 모듈 604를 포함할 수 있고 제 1 저장부 314는 로컬 조정 모듈 606을 포함할 수 있다. 각각의 모듈은 다른 모듈들과는 별개로 독립적으로 작동할 수 있다.
또한, 한 모듈에서 생성된 데이터는 직접 연결되어 있지 않아도 다른 모듈이 사용할 수 있다. 예컨대, 로컬 조정 모듈 606은 영상시퀀스 402를 수신할 수 있다.Also, data generated in one module can be used by other modules even if they are not directly connected. For example, the
도 7은 현재 입력 영상 406의 영상 깊이 맵 426 일부의 예이다. 영상 깊이 맵 416의 일부는 7x9 크기의 픽셀 상자로 나타나 있다. 영상 깊이 맵 416은 현재 입력 픽셀들 412, 입력 오브젝트 픽셀들 428 그리고 영상 픽셀 깊이 418을 포함할 수 있다. 현재 입력 픽셀들 412는 실선 정사각형으로 그려졌다. 입력 오브젝트 픽셀들 428은 점선 정사각형으로 그려졌다. 영상 픽셀 깊이 418은 현재 입력 픽셀들 412와 입력 오브젝트 픽셀들 428 각각의 내부의 숫자로 나타난다. 밑줄 친 숫자들은 입력 오브젝트 픽셀들 428의 영상 픽셀 깊이 418을 나타낸다. 영상 깊이 맵 416 윗부분의 숫자들은 열 숫자들이며 영상 깊이 맵 416의 왼쪽 측면 숫자들은 행 숫자들이다.7 is an example of a part of the video depth map 426 of the
예컨대, 현재 입력 픽셀들 412과 입력 오브젝트 픽셀들 428의 영상 픽셀 깊이 418의 높은 값은 도 2의 지각 깊이 211의 높은 값을 나타낸다. 구체적인 예를 들자면, 각각 높은 값의 영상 픽셀 깊이 418을 갖는 현재 입력 픽셀들 412와 1행의 입력 오브젝트 픽셀들 428은 영상 픽셀 깊이 418의 값이 낮은 7행의 픽셀들보다 더 가깝게 나타날 것이다.For example, the high value of the
도 8은 오브젝트 깊이 모듈 434의 도면이다. 오브젝트 깊이 모듈 434는 깊이 가중치 모듈 802를 포함할 수 있다. 깊이 가중치 모듈 802는 영상 속 오브젝트을 나타내는 픽셀의 깊이를 계산하기 위해 사용되는 가중치 팩터(factor)를 계산하는 역할을 한다. 깊이 가중치 모듈 802는 깊이 가중치 804를 계산할 수 있다.8 is a drawing of the
깊이 가중치 804는 깊이 후보 806과 다양한 픽셀의 속성과 특성들에 기반한 값을 뜻한다. 깊이 가중치 804는 영상 픽셀 깊이 418, 고정 깊이 808, 영상 최대 깊이 810, 일시 최고 깊이 812, 행 평균 깊이 814, 행 최대 깊이 816 그리고 로컬 깊이 818을 포함할 수 있는 깊이 후보 806에 기반하여 계산될 수 있다. 깊이 가중치 804는 현재 입력 영상 406에 있는 입력 오브젝트 픽셀 428 각각으로부터 계산될 수 있다.Depth weight 804 refers to
고정 깊이 808은 영상의 위치에 기반한, 변하지 않는 깊이의 값을 뜻한다. 예컨대, 오브젝트 픽셀 깊이 436을 고정 깊이 808로 갖는 입력 오브젝트 403은 현재 입력 영상 406의 위치나 입력 오브젝트 430에 인접한 현재 입력 영상 406 일부의 지각 깊이 211와 상관없이 동일한 지각 깊이 211 값을 갖는다.Fixed Depth 808 refers to the value of the unchanged depth based on the location of the image. For example, the input object 403 having the object pixel depth 436 at the fixed depth 808 has the
고정 깊이 808은 영상 시퀀스의 기설정된 연속된 값일 수 있으며, 영상 시퀀스 속 영상들간에 그 값이 다를 수 있고, 혹은 반복적(iterative) 혹은 재귀적(recursive) 방법을 통해 영상 시퀀스의 그 값이 휴리스틱하게 판단될 수 있다. 구체적인 예를 들자면, 고정 깊이 808은 예컨대, 8 비트 깊이 값은 128인 것과 같은 초기 설정에 근거할 수 있다. The fixed depth 808 may be a predetermined continuous value of the video sequence, and the value may be different between images in the video sequence, or the value of the video sequence may be heuristically determined through an iterative or recursive method Can be judged. As a specific example, the fixed depth 808 may be based on an initial setting such as an 8-bit depth value of 128, for example.
영상 최대 깊이 810은 영상 속 픽셀의 최대 깊이에 근거한 깊이 측정치이다. 영상 최대 깊이 810은 현재 입력 영상 406 내에서 최대 영상 픽셀 깊이 418를 갖는 현재 입력 픽셀들 412의 퍼센티지(percentage)로 계산될 수 있다. 예컨대, 오브젝트 픽셀 깊이 436를 영상 최대 깊이 810으로 갖는 입력 오브젝트 430의 지각 깊이 211 값은 최대의 지각 깊이 211을 갖는 현재 입력 영상 406의 일부보다도 낮은 퍼센티지를 갖을 것이다. 구체적인 예를 들자면, 영상 최대 깊이 810은 현재 입력 영상 406 내에서 최대의 영상 픽셀 깊이 418을 갖는 현재 입력 픽셀들 412의 영상 픽셀 깊이 211 값의 95퍼센트일 수 있다. The image maximum depth 810 is a depth measurement based on the maximum depth of the pixels in the image. The image maximum depth 810 may be calculated as a percentage of the
일 실시 예로 영상 최대 깊이 810는 도 7처럼 도시될 수 있다. 도 7에서, 영상 최대 깊이 810은 9.5일 수 있으며, 이 값은 1행 5-7열에 있는 영상 픽셀 깊이 418의 최대 값 10의 95%에 해당하는 값일 수 있다.In one embodiment, the maximum image depth 810 may be illustrated in FIG. In FIG. 7, the image maximum depth 810 may be 9.5, which may be a value corresponding to 95% of the
순간 최대 깊이 812는 다수의 시퀀스 영상들 내 최대 픽셀 깊이의 평균값을 뜻한다. 예컨대, 순간 최대 깊이 812는 이전 입력 영상 404, 현재 입력 영상 406 그리고 다음 입력 영상 408의 영상 최대 깊이 810의 평균값을 내어 계산될 수 있다. 순간 최대 깊이 812는 영상 시퀀스 402의 영상 최대 깊이 810 평균값의 95퍼센트 일 수 있다.The instantaneous maximum depth 812 refers to the average value of the maximum pixel depth in a plurality of sequence images. For example, the instantaneous maximum depth 812 can be calculated by averaging the maximum image depth 810 of the previous input image 404, the
행 평균 깊이 814는 영상 속 하나 이상의 행들의 평균 깊이 값을 뜻한다. 깊이 가중치 모듈 802는 행 평균 깊이 모듈 820을 이용하여 행 평균 깊이 814를 계산할 수 있다. 행 평균 깊이 모듈 820은 현재 입력 픽셀들 412의 현재 행 822에 대한 행 평균 깊이 814를 계산할 수 있다. 현재 행 822는 행 평균 깊이 모듈 820에 의해 평균값을 낸 현재 입력 픽셀들 412의 행을 뜻한다. 현재 행 822는 행 폭 824를 가지며, 행 폭은 현재 입력 영상 406의 폭을 아우르는 현재 입력 픽셀들 412의 총 개수를 뜻한다. The row average depth 814 refers to the average depth value of one or more rows in the image. The
행 평균 깊이 814는 현재 입력 픽셀들 412에 수직적으로 인접한 행들 수의 평균을 포함하도록 계산될 수 있으며, 이때 현재 입력 픽셀들에 수직적으로 인접한 행들은 현재 입력 픽셀들 412의 현재 행 811의 위나 아래에 위치한다. 행 평균 깊이 814의 계산에 포함되는 행들의 수는 그룹 팩터(group factor) 826에 의해 결정될 수 있으며, 이때 그룹 팩터는 행 평균 깊이 814의 계산에 포함된 수직적으로 인접한 행들의 수를 뜻한다. 그룹 팩터 826는 상수일 수 이거나 현재 행 822에 인접한 행들 속 입력 오브젝트 픽셀들 428의 검출을 기반하여 그 값이 다양할 수 있다. The row average depth 814 may be computed to include an average of the number of rows vertically adjacent to the
행 평균 깊이 모듈 820은 다음과 같은 수학식 (1)에 따라 행 평균 깊이 814를 계산할 수 있다.The row
수학식 1에서 Depth row _ average 는 행 평균 깊이(814)이고, width는 행 폭(824)이고, j는 현재 행(822)이고, i는 현재 행(822)에서 i번째 픽셀이고, K는 그룹 팩터 (826)이고, Depth background (ii , jj)는 행 폭(824)를 따라 현재 행(822) j와 위치 i에 해당하는 영상 픽셀 깊이이다. 예컨대, 행 평균 깊이(814)를 오브젝트 픽셀 깊이(436)로 갖는 입력 오브젝트(430)의 지각 깊이(211)는 행 평균 깊이(814)를 구하는데 사용되었던 현재 입력 픽셀들(412)의 행들에 대한 지각 깊이(211) 평균값일 것이다.And Depth row _ average row average depth 814 In
행 평균 깊이 모듈(820)의 예는 도 7에 도시되어 있을 수 있다. 깊이 가중치 모듈(802)는 입력 오브젝트 픽셀들(428)을 포함하는 하나의 행에 대한 행 평균 깊이 814를 계산할 수 있다. 예를 들어, 두 번째 행의 행 평균 깊이(814)는 8.7 일 수 있고, 세 번째 행의 행 평균 깊이(814)는 7.2 일 수 있고, 다섯 번째 행의 행 평균 깊이(814)는 3.6 일 수 있고, 여섯 번째 행의 행 평균 깊이(814)는 2. 5일 수 있다. 이와 유사하게, 깊이 가중치 모듈(802)는 입력 오브젝트 픽셀들(428)을 갖는 인접 행들에 대한 행 평균 깊이를 계산할 수 있다. 예컨대, 두 번째와 세 번째 행들의 행 평균 깊이(814)는 8일 수 있고 다섯 번째와 여섯 번째 행들의 행 평균 깊이(814)는 3.1 일 수 있다.An example of the row
행 최대 깊이(816)는 현재 입력 픽셀들(412)의 행에 대한 혹은 입력 오브젝트 픽셀들(428)을 갖는 현재 입력 픽셀들(412)에 수직적으로 인접한 일단의 행들에 대한 영상 픽셀 깊이(418)의 최대 값을 뜻한다. 깊이 가중치 모듈(802)는 현재 입력 픽셀들(412)과 입력 오브젝트 픽셀들(428) 각각에 대한 영상 픽셀 깊이(418)를 확인할 수 있으며, 행 최대 깊이(816)을 특정 행에 대한 영상 픽셀 깊이(418)의 최대 값으로 판단할 수 있다. 이와 유사하게, 각각 입력 오브젝트 픽셀들(428)을 갖는 수직적으로 인접한 행들의 수에 있어서, 깊이 가중치 모듈(802)는 현재 입력 픽셀들(412)와 입력 오브젝트 픽셀들(428) 각각에 대한 영상 픽셀 깊이(418)를 확인할 수 있으며 행 최대 깊이(816)을 영상 픽셀 깊이(418)의 최대값이라고 판단할 수 있다.The row maximum depth 816 includes the
행 최대 깊이(816)의 예는 도 7에 도시될 수 있다. 깊이 가중치 모듈(802)는 입력 오브젝트 픽셀들(428)을 갖는 단일 행에 대한 행 최대 깊이(816)을 계산할 수 있다. 예컨대, 두 번째 행의 행 최대 깊이(816)는 9일 수 있고, 세 번째 행의 행 최대 깊이(816)는 8일 수 있고, 다섯 번째 행의 행 최대 깊이(816)은 4일 수 있고, 여섯 번째 행 최대 깊이(816)은 3일 수 있다. 이와 유사하게, 깊이 가중치 모듈 (802)는 입력 오브젝트 픽셀들(428)을 갖는 인접 행들에 대한 행 최대 깊이를 계산할 수 있다. 예컨대, 두 번째와 세 번째 행들의 행 최대 깊이(816)은 9일 수 있으며 다섯 번째와 여섯 번째 행들의 행 최대 깊이(816)은 4일 수 있다.An example of the row maximum depth 816 can be shown in FIG. The
로컬 깊이(local depth) 818은 일단의 픽셀 행들 사이의 최대 픽셀 깊이를 뜻한다. 깊이 가중치 모듈 802는 로컬 깊이 모듈 828을 이용하여 로컬 깊이 818을 계산할 수 있다. 로컬 깊이 모듈 828의 기능은 이후 자세히 설명될 것이다.The
깊이 가중치 모듈 802는 고정 깊이 808을 포함하는 깊이 후보 806, 영상 최대 깊이 810, 순간 최대 깊이 812, 행 평균 깊이 814 그리고 로컬 깊이 818의 가중치 평균 값으로 깊이 가중치 804를 계산할 수 있다. 바람직하게는, 가중치 깊이 804에 있어서, 50%~75%는 영상 픽셀 깊이 418로 표시될 수 있고, 0%~7%는 행 평균 깊이 814로 표시될 수 있고, 9%~25%는 영상 최대 깊이 810 혹은 순간 최대 깊이 812로 표시될 수 있고, 9%~25%는 로컬 깊이 818로 표시될 수 있다.The
오브젝트 깊이 모듈 434는 선택에 따라 가중치 조정 모듈 830을 포함할 수 있다. 가중치 조정 모듈 830은 오브젝트 픽셀 위치 832, 오브젝트 픽셀 속성 834 혹은 이들의 조합을 기반으로 픽셀 깊이를 계산하는데 사용되었던 팩터(factor)들의 가중치를 조정하는 역할을 한다. The
오브젝트 픽셀 위치 832는 현재 입력 영상 406 안 입력 오브젝트 픽셀들의 위치를 뜻한다. 예컨대, 오브젝트 픽셀 위치 832는 현재 입력 영상 406 혹은 영상의 일반적인 부분 예컨대, 현재 입력 영상 406의 바닥, 중앙, 코너와 같은 부분들 내 특정 좌표일 수 있다. 또 다른 예를 들자면, 오브젝트 픽셀 위치 832는 현재 입력 영상 406의 바닥 중심 혹은 왼쪽 위쪽 코너처럼 입력 오브젝트 430의 일반적인 부분과 관련되어 있을 수 있다.The object pixel position 832 indicates the position of the input object pixels in the
오브젝트 픽셀 속성 834은 특정 색깔이나 휘도의 레벨처럼 입력 오브젝트 430과 일반적으로 관련된 속성을 뜻한다. 예컨대, 자막 문구를 나타내는 입력 오브젝트 430과 일반적으로 관련된 오브젝트 픽셀 속성 834은 흰색 혹은 밝은 노란색과 같은 색깔들 혹은 현재 입력 영상 406의 인접 부분보다 밝은 휘도 레벨이다. 또 다른 예에서, 오브젝트 픽셀 속성 834는 스코어보드(scoreboard)의 보더(boarder)와 같은 기능일 수 있다.The object pixel attribute 834 refers to an attribute generally associated with the input object 430, such as a particular color or level of brightness. For example, an object pixel attribute 834 generally associated with an input object 430 representing a caption phrase is a color such as white or light yellow or a luminance level brighter than the adjacent portion of the
가중치 조정 모듈 830은 깊이 가중치 804를 조정하여, 오브젝트 픽셀 위치 832와 오브젝트 픽셀 속성 834에 기반해 입력 오브젝트 픽셀들 428의 지각 깊이 211을 높이거나 낮출 수 있다. 예컨대, 가중치 조정 모듈 830이 오브젝트 픽셀 위치 832와 오브젝트 픽셀 속성 834를 입력 오브젝트 430과 일반적으로 관계하고 있다고 지각할 경우, 가중치 조정 모듈 830은 깊이 가중치 840을 조정해서 지각 깊이 211을 높여 현재 오브젝트 영상 406으로부터 입력 오브젝트 430을 구별할 수 있다. 구체적 예를 들자면, 가중치 조정 모듈 830은 깊이 가중치 804가 50%의 영상 픽셀 깊이 418, 0%의 행 평균 깊이 814, 25%의 영상 최대 깊이 810 그리고 25%의 로컬 깊이 818가 되도록 깊이 가중치 804를 조정하여, 현재 입력 영상 406으로부터 입력 오브젝트 430을 구별할 수 있다.The weight adjustment module 830 may adjust the depth weight 804 to raise or lower the
또 다른 예에서, 가중치 조정 모듈 830이 상기의 오브젝트 픽셀 위치 832와 오브젝트 픽셀 속성 834가 입력 오브젝트 430과 일반적으로 연관되지 않는다고 지각할 경우, 가중치 조정 모듈 830은 깊이 가중치 804를 조정하여 지각 깊이 211을 줄이거나 혹은 입력 오브젝트 430을 현재 입력 영상 406에 혼합할 수 있다. 구체적 예를 들자면, 입력 오브젝트 430과 일반적으로 연관되지 않은 오브젝트 픽셀 위치 832는 현재 입력 영상 406의 중심에 올 수 있다. 또 다른 구체적 예를 들자면, 가중치 조정 모듈 830은 영상 픽셀 깊이 418은 75%, 행 평균 깊이 814는 7%, 영상 최대 깊이 810은 9% 그리고 로컬 깊이 818은 9%가 되도록 깊이 가중치 804를 조정하여 입력 오브젝트 430을 현재 입력 영상 406에 혼합할 수 있다.In another example, if the weight adjustment module 830 perceives that the object pixel position 832 and the object pixel property 834 are not generally associated with the input object 430, the weight adjustment module 830 adjusts the depth weight 804 to adjust the
또 다른 예를 들자면, 가중치 조정 모듈 830은 로컬 순간 모션 426을 갖는 입력 오브젝트 픽셀들 428에 대한 깊이 가중치 804를 조정할 수 있다. 구체적 예를 들자면, 깊이 가중치 804는 영상 픽셀 깊이 418의 가중치은 최소화하고 영상 최대 깊이 810의 가중치은 최대화되도록 조정될 수 있다. 또 다른 구체적 예를 들자면, 깊이 가중치 804는 0%의 영상 픽셀 깊이 418, 75%의 영상 최대 깊이 810 그리고 25%의 로컬 깊이 818일 수 있다.As another example, the weight adjustment module 830 may adjust the depth weight 804 for the
오브젝트 깊이 모듈 434는 입력 오브젝트 픽셀들 428에 대응되는 영상 픽셀 깊이 418와 입력 오브젝트 픽셀들 428에 대한 깊이 가중치 804을 곱하여 오브젝트 픽셀 깊이 436을 계산할 수 있다.The
본 발명은 처리 오브젝트 214와 처리 영상 212간의 깊이 차이(disparity)가 줄어든 디스플레이 시스템 100을 제공한다는 것이 밝혀졌다. 깊이 후보 806의 가중치 평균값을 계산한 값인 깊이 가중치 804은 오브젝트 픽셀 깊이 436을 계산하는 데 쓰일 수 있으며 처리 영상 212과의 깊이 차이가 줄어든 처리 오브젝트 214를 생성해 내기 위해 입력 오브젝트 430로 인가될 수 있다.It has been found that the present invention provides a
처리 영상 212 디스플레이의 물리적 변형은 실제 세계에서 게임을 하거나 3D 영상을 시청할 때 처리 영상 212에 대해 반응한 사람들의 움직임과 같은 움직임을 유발할 수 있다. 제 1 디스플레이 인터페이스 330은 제 1 디바이스 102상의 픽셀들을 조작함으로써 처리 영상 212을 디스플레이 할 수 있으며, 그로 인해 현실 세계의 움직임을 유발한다.
디스플레이 시스템 100은 도 1의 제 1 디바이스 102 상이나 도 1의 제 2 디바이스 106 상 혹은 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치하여 실행될 수 있다. 예컨대, 도 3의 제 2 저장부 346은 오브젝트 픽셀 위치 832를 저장할 수 있으며 제 1 제어부 312는 가중치 조정 모듈 830을 실행할 수 있다.The
디스플레이 시스템 100은 예를 들어 모듈 기능들 혹은 명령을 설명하고 있다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 깊이 가중치 모듈 802, 로컬 깊이 모듈 828 그리고 행 평균 깊이 모듈 820을 포함할 수 있으며 제 1 저장부 314는 가중치 조정 모듈 830을 포함할 수 있다. 각각의 모듈들은 다른 모듈들과 별개로 독립적으로 작동할 수 있다.
또한, 한 모듈에서 생성된 데이터는 서로 직접 연결되어 있지 않아도 다른 모듈이 사용할 수 있다. 예컨대, 가중치 조정 모듈 830은 영상 픽셀 깊이 418을 수신할 수 있다. In addition, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the weight adjustment module 830 may receive the
도 9는 로컬 깊이 모듈 828의 도면이다. 로컬 깊이 모듈 828은 행 합 모듈(row sum module) 902, 이진 변환 모듈(binary conversion module) 904, 최대 필터 모듈(maximum filter module) 906, 행 깊이 그룹 모듈(row depth group module) 908, 그룹 최대 모듈(group maximum module) 910, 그리고 균일 깊이 모듈(uniform depth module) 912을 이용하여 로컬 깊이 818을 계산할 수 있다.9 is a diagram of the
행 합 모듈 902은 한 영상 픽셀들의 각각의 행에 관련하여, 오브젝트를 나타내는 픽셀들의 개수를 합하는 역할을 한다. 행 합 모듈 902는 오브젝트 행 합 914를 계산할 수 있다. 오브젝트 행 합 914는 현재 입력 픽셀들 412의 특정 행 안에 있는 입력 오브젝트 픽셀들 428의 총 개수를 뜻한다. 예컨대, 입력 오브젝트 픽셀들 428의 행이 5 개의 입력 오브젝트 픽셀들 428을 포함할 경우, 행 합 모듈 902는 오브젝트 행 합 914를 5로 계산할 수 있다. 행 합 모듈 902는 현재 입력 영상 406 속 현재 입력 픽셀들 412 각각의 행에 대한 오브젝트 행 합 914를 계산할 수 있다.An
이진 변환 모듈 904는 픽셀들의 특정 행에 대한 픽셀 카운트(pixel count)를 나타내는 값을 이진(binary) 값으로 변환하는 역할을 한다. 이진 변환 모듈 904는 이진 임계값(binary threshold) 916을 근거로 오브젝트 행 합 914을 현재 입력 영상 406 속 현재 입력 픽셀들 412의 각 행에 대한 이진 행 값 916으로 변환할 수 있다. 이진 행 값 916은 행이 오브젝트를 나타내는 픽셀을 포함하고 있는지에 대한 이진 측정 값을 뜻한다.The
이진 임계값 917은 픽셀 행 안에 오브젝트를 나타내기 위한 충분한 픽셀들이 있는지를 판단하기 위한 임계값을 뜻한다. 이진 임계값 917은 현재 입력 픽셀들 412의 한 행에 위치한 입력 오브젝트 픽셀들 428의 총 개수에 대한 퍼센티지에 근거해 판단될 수 있다. 예컨대, 이진 임계값 917은 현재 입력 픽셀들 412의 행에 있는 입력 오브젝트 픽셀들 428의 총 개수의 4%로 판단될 수 있다. 구체적인 예를 들자면, 현재 입력 픽셀들 412의 행이 값이 480인 오브젝트 행 합 914을 갖는 경우, 이진 임계값 917은 480의 약 4%에 해당하는 19로 계산될 수 있다.The binary threshold 917 is a threshold for determining if there are enough pixels to represent an object in a pixel row. The binary threshold 917 may be determined based on the percentage of the total number of input object
이진 변환 모듈 904는 오브젝트 행 합 914를 이진 임계값 917과 비교하여 이진 행 값 916을 계산할 수 있다. 예컨대, 현재 입력 픽셀들 412의 한 행에 대한 오브젝트 행 합 914이 이진 임계값 917보다 클 경우, 이진 변환 모듈 904는 상기 특정 행에 대한 이진 행 값 916을 1로 설정할 수 있다. 이와는 반대로, 현재 입력 픽셀들 412의 한 행에 대한 오브젝트 행 합 914가 이진 임계값 917보다 작을 경우, 이진 변환 모듈 904는 상기 특정 행에 대한 이진 행 값 916을 0으로 설정할 수 있다.The
최대 필터 모듈 906은 이진 값이 0인 픽셀 행들을 필터링 해 제거하는 역할을 한다. 최대 필터 모듈 906은 이진 행 값 916을 근거로 이진 행 그룹 918을 생성할 수 있다. 이진 행 그룹 918은 이진 행 값을 1로 갖는, 현재 입력 픽셀들 412에 수직적으로 인접한 일단의 행들을 뜻한다.The
최대 필터 모듈 906은 이진 행 값 916이 0인, 현재 입력 픽셀들의 행들을 필터링 해 제거함으로써 이진 행 그룹 918을 생성할 수 있으며 이때, 이진 행 값 916이 0인 행들은 이진 행 값 916이 1인 현재 입력 픽셀들의 좁게 배열된 행들 사이에 위치해 있다.The
예를 들어, 최대 필터 모듈 906은 두 가지 조건이 부합되는지 판단할 수 있다. 첫째, 이진 행 값 916이 0인, 현재 입력 픽셀들 412에 수직적으로 인접한 일련의 행들이 이진 행 값 916이 1인, 현재 입력 픽셀들 412에 수직적으로 인접한 일련의 행들 사이에 위치한다. 둘째, 이진 행 값 916이 1인 수직적으로 인접한 행들의 수는 이진 행 값 916이 0인 수직적으로 인접한 행들의 수보다 커야 한다. For example, the
로컬 깊이 모듈 828은 행 평균 깊이 모듈 820을 활용하여 현재 입력 영상 406 속 현재 입력 픽셀들 412의 각 행에 대한 단일 행 깊이 920을 계산할 수 있다. 단일 행 깊이 920은 현재 입력 영상 406 행에 위치하고 있는 모든 현재 입력 픽셀들 412의 영상 픽셀 깊이 418의 평균 값을 뜻한다. 로컬 깊이 모듈 828은 그룹 팩터 K가 0인 상기 수학식(1)에 따라 단일 행 깊이 920을 계산할 수 있다.The
로컬 깊이 모듈 828은 행 깊이 그룹 모듈 908을 이용하여 단일 행 깊이 920에 근거한 행 깊이 그룹 922(row depth group)과 이진 행 값 916을 식별할 수 있다. 행 깊이 그룹 922는 연속적으로 인접한 일련의 픽셀 행들을 뜻한다. 연속적으로 인접한 픽셀 행들은 중간에 틈을 갖지 않은 행들이다. 예컨대, 한 영상의 첫 번째, 두 번째, 세 번째 픽셀 행들은 연속적으로 인접한 행들일 수 있다. 이와는 반대로, 첫 번째, 세 번째, 다섯 번째 행들은 연속적인 행들일 수 없는데, 두 번째와 네 번째 행들이 일련의 행들 사이에서 틈을 형성하기 때문이다.The
행 깊이 그룹 모듈 908은 단일 행 깊이 920에 현재 입력 픽셀들 412의 각 행들에 대한 이진 행 값 916를 곱하여 행 깊이 그룹 922을 식별할 수 있다. 곱셈 이후, 0 이 아닌 값을 갖는 현재 입력 픽셀들 412의 연속적인 인접 행들을 그룹으로 묶을 수 있다. 예컨대, 단일 행 깊이 920에 각 행에 대한 이진 행 값 916을 곱한 이후 두 개 이상의 현재 입력 픽셀들 412의 행이 0 이 아닌 값을 가질 경우, 행 깊이 그룹 모듈 908은 행 깊이 그룹 922를 식별할 수 있다.The row
로컬 깊이 모듈 828은 그룹 최대 모듈 910을 이용하여 행 깊이 그룹 922의 그룹 최대 깊이 924를 판단할 수 있다. 그룹 최대 모듈 910은 그룹 최대 깊이 914를 행 깊이 그룹 922의 단일 행 깊이 920에 대한 최대값과 동일시함으로써 행 깊이 그룹 922에 대한 그룹 최대 깊이 924를 판단할 수 있다. 로컬 깊이 818은 현재 입력 픽셀들 412의 수직적으로 그룹화된 행들에 대한 그룹 최대 깊이 924일 수 있다. The
로컬 깊이 모듈 828은 균일 깊이 모듈 912를 이용하여 로컬 깊이 818을 판단할 수 있다. 균일 깊이 모듈 912는 한 그룹 내 픽셀들의 모든 행에 대해 균일한 깊이 값을 지정하는 역할을 한다. 균일 깊이 모듈 912는 행 깊이 그룹 922의 각 행에 있는 모든 현재 입력 픽셀들 412에 대한 로컬 깊이 818을 그룹 최대 깊이 924로 지정할 수 있다. 예컨대, 로컬 깊이 818은 현재 입력 픽셀들 412의 수직적으로 그룹화 된 행들에 대한 그룹 최대 깊이 924 일 수 있다. 균일 깊이 모듈 912는 현재 입력 영상 406의 행 깊이 그룹 922 각각에 대한 로컬 깊이 818을 지정할 수 있다.The
디스플레이 시스템 100은 도 1의 제 1 디바이스 102 상에 혹은 도 1의 제 2 디바이스 106 상 아니면 제 1 디바이스 102와 제 2 디바이스 106 사이에 위치하여 실행될 수 있다. 예컨대, 도 3의 제 2 제어부 334는 행 합 모듈 902를 실행할 수 있으며 제 1 제어부 312는 이진 변환 모듈 904를 실행할 수 있다.The
디스플레이 시스템 100은 모듈의 기능들이나 명령을 예를 들어 설명한다. 모듈들은 다르게 구획될 수 있다. 예컨대, 제 1 제어부 312는 행 합 모듈 902, 이진 변환 모듈 904, 최대 필터 모듈 906을 포함할 수 있으며 제 1 제장부 314는 행 깊이 그룹 모듈 908, 그룹 최대 모듈 910, 균일 깊이 모듈 912를 포함할 수 있다. 각각의 모듈들은 다른 모듈들과 별개로 독립적으로 작동할 수 있다.The
더 나아가, 한 모듈에서 생성된 데이터는 서로 직접 연결되지는 않았더라도 다른 모듈이 사용할 수 있다. 예컨대, 그룹 최대 모듈 910은 영상 픽셀 깊이 418을 수신할 수 있다.Furthermore, data generated in one module can be used by other modules even if they are not directly connected to each other. For example, the
도 10은 현재 입력 영상 406의 예시이다. 현재 입력 영상 406은 입력 오브젝트 픽셀들 428을 갖는 행들을 포함하며 이 행들은 점선으로 그려진 부분들로 나타나 있다. 하얀색 부분들은 현재 입력 픽셀들 412이다. 예컨대, 입력 오브젝트 픽셀들 428은 현재 입력 영상 406의 자막이나 다른 유형의 문자들을 나타낼 수 있다.10 is an illustration of the
도 11은 행 합 모듈 902의 예시이다. 행 합 모듈 902는 오브젝트 행 합 914를 계산할 수 있으며, 오브젝트 행 합914은 도 10의 현재 입력 픽셀들 412의 각 행들 안에 있는 도 10의 입력 오브젝트 픽셀들 428의 총 합을 뜻하고 점선으로 그려진 지역으로 차트 1102 상에 나타나 있다. 차트 1402의 X축은 현재 입력 영상 406의 행들에 대응한다. 차트 1402의 Y축은 입력 오브젝트 픽셀428의 개수에 대한 참조가 될 수 있다.11 is an example of a
도 12는 이진 변환 모듈904 일 예를 보여주고 있다. 이진 변환 모듈 904는 도 11의 오브젝트 행 합 914를 도 10의 현재 입력 픽셀 412의 각 행에 대한 이진 행 값 916으로 변경할 수 있고, 이러한 내용은 차트 1202의 점선 영역에 나타나 있다. 차트 1202의 x축은 도 10의 현재 입력 영상 406에 행들에 대응한다. 차트 1202의 y축은 이진 행 값 916에 대한 참조가 된다. FIG. 12 shows an example of the
예를 들면, 차트1202는 왼쪽 일부에 1의 값을 갖는 하나의 이진 행과, 0의 값 916을 갖는 세개의 이진 행, 4개의 행으로 이루어진 제1그룹 1204를 묘사하고 있다. 제1그룹 1204에 0값을 갖는 이진 행은 1의 값을 갖는 이진 행을 갖는 현재 입력 픽셀 412의 근접하여 위치한 행들에 대응된다. 유사하게, 추가적인 실시 예로 차트 1202는 오른쪽을 따라서 1의 값을 갖는 이진 행을 갖는 두 개의 행과 0의 값을 갖는 이진 행을 갖는 하나의 행을 묘사하고 있다. For example, a
도 13은 최대 필터 모듈 906의 일 실시 예를 도시하고 있다. 최대 필터 모듈 906은 차트 13O2의 점선 부분에 묘사된 것처럼 이진 행 그룹 918을 생성할 수 있다. 최대 필터 모듈 960은 도 12에 보여지는 이진 행 그룹 918을 생성하기 위해 1의 값을 갖는 이진 행을 갖는 현재 입력 픽셀의 근접 위치한 행들 사이에 위치하는 0의 이진 행 값을 갖는 현재 입력 픽셀의 행들을 필터링하여 제거할 수 있다. 차트 1302의 X축은 도 10의 현재 입력 영상 406에 있는 행들에 대응된다. 차트 1302의 Y축은 이진 행 916값에 대한 참조가 된다. FIG. 13 illustrates one embodiment of a
예컨대, 차트 1302는 왼쪽 부분을 따라 이진 행 그룹 918의 제1그룹 1304를 묘사하고 있다. 유사하게 추가적인 실시 예로, 차트 1302는 오른쪽 부분에 이진 행 그룹 918의 제2그룹 1306을 묘사하고 있다. For example, a
도 14는 행 평균 깊이 모듈 820의 예를 도시하고 있다. 행 평균 깊이 모듈 820은 차트 1402에 도시된 것처럼 도 10의 현재 입력 영상 406에 있는 현재 입력 픽셀의 각 행에 대한 단일 행 깊이 920을 계산할 수 있다. 차트 1402의 커브1404는 현재 입력 영상 406의 현재 입력 픽셀 412의 각 행에 대한 단일 행 깊이 920을 나타낸다. 차트 14O2의 X축은 현재 입력 영상 406에 있는 행들에 대응된다. 차트 1402의 Y축은 단일 행 깊이 920에 대한 참조가 된다. FIG. 14 shows an example of a row
도 15는 행 깊이 그룹 모듈 908의 예시이다. 도 14의 단일 행 깊이 920를 차트 1502에 그려져 있는 도 10의 현재 입력 영상 412의 각 행들에 대한 도 13의 이진 행 값에 곱하여 행 깊이 그룹 모듈 908은 행 깊이 그룹 922를 생성할 수 있다. 차트 1502의 X축은 현재 입력 영상 406의 행에 해당한다. 차트 1502의 Y축은 단일 행 깊이 920의 참조 정보이다.FIG. 15 is an illustration of a row
곱셈 이후 행 깊이 그룹 모듈 908은 0 이 아닌 값을 갖는 현재 입력 픽셀들 412의 연속적으로 인접한 행들을 그룹화하여 행 깊이 그룹 922를 생성한다. 예컨대, 차트 1502는 왼쪽 영역을 따라 행 깊이 그룹 922의 첫 번째 그룹 1504을 묘사하고 있다. 이와 유사하게, 또 다른 예에서는, 차트 1502는 차트의 오른쪽 영역을 따라 행 깊이 그룹 922의 두번째 그룹 1506을 묘사하고 있다.The multiplication after row
도 16은 그룹 최대 모듈 910의 예시이다. 그룹 최대 모듈 910은 그룹 최대깊이 924를 차트 1602에 그려져 있는 행 깊이 그룹 922 내 도 14의 단일 행 깊이 920의 최대값과 동일시하여, 행 깊이 그룹 922의 그룹 최대 깊이 924를 결정할 수 있다. 차트 1602의 X축은 도 10의 현재 입력 영상 406의 행들에 대응한다. 차트 1602의 Y축은 단일 행 깊이 920의 참조 정보이다.FIG. 16 is an illustration of a
예컨대, 차트 1602는 왼쪽 부분을 따라 그룹 최대 깊이 924의 첫번째 값 1608을 갖는 행 깊이 그룹 922의 제1그룹 1604를 묘사하고 있다. 유사하게, 추가적인 예로 차트의 오른쪽 부분을 따라 그룹 최대 깊이 924의 두번째 값을 갖는 행 깊이 그룹 922의 제2그룹 1606를 묘사하고 있다. For example, a
도 17은 균일 깊이 모듈 912의 예시이다. 균일 깊이 모듈 912는 도 16의 행 깊이 그룹 922의 각 행들 내에 도 10의 모든 현재 입력 픽셀들에 대한 로컬 깊이 818을 행 최대 깊이 924로 지정할 수 있으며 이는 점선으로 그려진 부분들로 차트 1702 상에 그려져 있다. 차트 1702의 X축은 도 10의 현재 입력 영상 406의 행들에 해당한다. 차트 1702의 Y축은 로컬 깊이 818의 참조 정보이다.FIG. 17 is an illustration of a
예컨대, 차트 1702는 로컬 깊이 818의 제 1 값 1708을 갖는 현재 입력 픽셀 412의 행들의 제 1 그룹 1704를 차트 1702의 왼쪽에 두고 있다. 유사하게, 로컬 깊이 818의 두 번째 값 1710을 갖는 현재 입력 픽셀들 412의 행들인 제2그룹1706을 차트 1702의 오른쪽에 두고 있다.For example, a
도 18은 본 발명의 추가 실시 예에 따른 디스플레이 장치 작동 방법 1800의 흐름도이다. 방법 1800은 블록 1802 속 현재 입력 픽셀들을 갖는 현재 입력 영상을 수신하는 단계; 블록 1804 속 현재 입력 픽셀들의 특성상 차이점을 기반으로 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계; 블록 1806 속 깊이 후보들의 가중치 평균을 기반으로 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀들의 오브젝트 픽셀 깊이를 계산하는 단계; 및 블록 1808 속 장치에 표시하기 위해서, 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 지각 깊이를 갖는 처리 영상을 생성하는 단계;를 포함한다.18 is a flowchart of a
결과적으로 도출된 방법, 프로세스, 장치, 장비, 물품 그리고/혹은 시스템은 간단하고, 비용 효율적이며, 복잡하지 않고, 다용도이고, 정확하고, 민감하고, 효율적이며 또한 준비되고, 효율적이고 경제적인 제조, 적용, 활용될 수 있는 부품들에 적용될 수 있다. 본 발명의 또 다른 중요한 기능은 비용 절감, 시스템 간소화, 성능 강화라는 오랜 목표를 달성한다.The resulting method, process, apparatus, equipment, article and / or system should be simple, cost effective, uncomplicated, versatile, accurate, sensitive, efficient and prepared, It can be applied to parts that can be applied and utilized. Another important function of the present invention achieves the long-term goal of cost reduction, system simplification, and performance enhancement.
이러한 그리고 다른 유용한 본발명의 측면은 결과적으로 기술상태를 다음 단계로 진보시키고 있다.These and other useful aspects of the invention result in advancing the state of the art to the next level.
본 발명은 최선의 실시 예에 연관되어 설명되었으나 앞선 설명에 따라 통상의 지식을 가진 자는 다양한 수정 및 변형이 가능하다고 이해될 것이다. 따라서, 본 발명은 포함된 청구 범위 안에 해당되는 모든 변형 및 수정을 포괄하는 것으로 이해되어야 할 것이다. 첨부된 도면에 제시되거나 나타난 모든 사항들은 설명을 위한 것이며 본 발명의 권리범위를 제한하는 것으로 이해되어서는 안될 것이다. While the invention has been described in conjunction with the preferred embodiments, it will be understood by those skilled in the art that various modifications and variations are possible in light of the above teachings. Accordingly, it is intended that the present invention cover all modifications and variations that fall within the scope of the appended claims. It is intended that all matter contained in the accompanying drawings shall be interpreted as illustrative and not in a limiting sense the scope of the present invention.
도 3
102 제 1 디바이스 104 통신 경로
106 제 2 디바이스 308 제 1 디바이스 전송
310 제 2 디바이스 전송 312 제 1 제어부
314 제 1 저장부 316 제 1 통신부
318 제 1 사용자 인터페이스 322 제 1 제어 인터페이스
324 제 1 저장 인터페이스 326 제 1 소프트웨어
328 제 1 통신 인터페이스 330 제 1 디스플레이 인터페이스
334 제 2 제어 인터페이스 336 제 2 통신부
338 제 2 사용자 인터페이스 340 제 2 디스플레이 인터페이스
342 제 2 소프트웨어 348 제 2 저장 인터페이스
350 제 2 통신 인터페이스
도 4
212 처리 영상 214 처리 오브젝트
402 영상 시퀀스 404 이전 입력 영상
406 현재 입력 영상 408 다음 입력 영상
410 이전 입력 픽셀 412 현재 입력 픽셀
414 다음 입력 픽셀 416 영상 깊이 맵
418 픽셀 깊이 420 픽셀 모션 모듈
422 모션 벡터 424 오브젝트 검출 모듈
426 로컬 순간 모션 428 입력 오브젝트 픽셀
430 입력 오브젝트 432 오브젝트 조정 모듈
434 오브젝트 깊이 모듈 436 오브젝트 픽셀 깊이
438 영상 변환 모듈 440 영상 디스플레이 모듈
442 현재 처리 픽셀 444 처리 오브젝트 픽셀
도 5
502 오브젝트 식별 모듈 504 오브젝트 모션 모듈
도 6
604 영상 조정 모듈 606 로컬 조정 모듈
608 영상 모션 평균 610 영상 모션 임계값
612 장면 조정 모듈 614 장면 정보
616 줌 씬 618 로컬 모션 모듈
도 8
802 깊이 가중치 모듈 806 깊이 후보
808 고정 깊이 810 영상 최대 깊이
812 순간 최대 깊이 814 행 평균 깊이
816 행 최대 깊이 818 로컬 깊이
820 행 평균 깊이 모듈 822 현재 행
824 행 폭 826 그룹 요인
828 로컬 깊이 모듈 830 가중치 조절 모듈
832 오브젝트 픽셀 위치 834 오브젝트 픽셀 속성
436 오브젝트 픽셀 깊이
도 8
818 로컬 깊이 902 행 합 모듈
904 이진 변환 모듈 906 최대 필터 모듈
908 행 깊이 그룹 모듈 910 그룹 최대 모듈
912 균일 깊이 모듈 914 오브젝트 행 합
916 이진 행 값 917 이진 임계값
918 이진 행 그룹 920 단일 행 깊이
922 행 깊이 그룹 924 그룹 최대 깊이
도 11
902 입력 오브젝트 픽셀
도 12
904 이진 값
도 13
906 이진 값
도 14
820 깊이
도 16
910 깊이
도 17
912 깊이
도 18
1802 현재 입력 영상 수신 1804 입력 오브젝트 식별
1806 오브젝트 깊이 계산 1808 처리 영상 생성3
102
106 second device 308 first device transfer
310
314
318 First user interface 322 First control interface
324
328
334
338
342
350 second communication interface
4
212
402 Video sequence 404 Previous input video
406 Current input video 408 Next input video
410
414
418 pixel depth 420 pixel motion module
422
426
430
434 Object Depth Module 436 Object Pixel Depth
438 image conversion module 440 image display module
442 Current processing pixel 444 Processing object pixel
5
502 object identification module 504 object motion module
6
604
608 Video Motion Average 610 Video Motion Threshold
612
616 Zoom Scene 618 Local Motion Module
8
802
808 Fixed Depth 810 Image Maximum Depth
812 Moment maximum depth 814 rows Average depth
816 rows
820 rows Average depth Module 822 Current row
824 Row Width 826 Group Factor
828 Local depth module 830 Weight adjustment module
832 Object pixel position 834 Object pixel attribute
436 Object pixel depth
8
818
904
908 Row
912
916 Binary Row Values 917 Binary Thresholds
918
922
11
902 Input object pixel
12
904 binary value
13
906 binary value
14
820 Depth
16
910 depth
17
912 depth
18
1802 Receive the
1806 Calculate
Claims (20)
현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 단계;
상기 현재 입력 픽셀의 특성상 차이점에 기초하여 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계;
상기 현재 입력 픽셀의 현재 행과 상기 현재 입력 픽셀에 인접한 행들의 평균 값을 이용하여 상기 현재 입력 영상의 영상 깊이 맵으로부터 상기 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 단계; 및
장치에 표시하기 위해서, 상기 영상 깊이 맵과 상기 오브젝트 픽셀 깊이를 갖는 상기 현재 입력 영상으로부터 지각 깊이를 갖는 처리된 영상을 생성하는 단계;을 포함하는 디스플레이 장치의 동작 방법.A method of operating a display device,
Receiving a current input image having a current input pixel;
Identifying an input object having an input object pixel based on a difference in characteristics of the current input pixel;
Calculating an object pixel depth for the input object pixel from the image depth map of the current input image using the current row of the current input pixel and the average value of the rows adjacent to the current input pixel; And
Generating a processed image having a perceptual depth from the current input image having the image depth map and the object pixel depth for display on the device.
상기 입력 오브젝트를 식별하는 단계는 로컬 순간 모션을 갖는 입력 오브젝트를 식별하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.The method according to claim 1,
Wherein identifying the input object comprises identifying an input object having local instantaneous motion.
상기 오브젝트 픽셀 깊이를 계산하는 단계는 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 위치에 기초하여 상기 평균 값을 조정하는, 디스플레이 장치의 동작 방법.The method according to claim 1,
Wherein the step of calculating the object pixel depth adjusts the average value based on an object pixel position of the input object pixel.
상기 오브젝트 픽셀 깊이를 계산하는 단계는 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 특성에 기초하여 상기 평균 값을 조정하는, 디스플레이 장치의 동작 방법.The method according to claim 1,
Wherein the step of calculating the object pixel depth adjusts the average value based on an object pixel characteristic of the input object pixel.
장면 정보를 갖는 입력 오브젝트 픽셀을 확인하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.The method of claim 1, wherein
Further comprising the step of identifying an input object pixel having scene information.
현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 단계;
상기 현재 입력 픽셀의 특성상 차이점들을 기반으로 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 단계;
영상 최대 깊이, 상기 현재 입력 픽셀의 현재 행과 상기 현재 입력 픽셀에 인접한 행들의 평균 값을 이용하여 계산된 행 평균 깊이, 로컬 깊이 및 영상 픽셀 깊이의 가중치 평균에 기초하여 상기 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 단계; 및
장치에 디스플레이하기 위해 영상 깊이 맵과 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 처리된 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.A method of operating a display device,
Receiving a current input image having a current input pixel;
Identifying an input object having input object pixels based on differences in characteristics of the current input pixel;
An image depth maximum, an image depth of the current input image based on a weighted average of a row average depth, a local depth, and an image pixel depth calculated using a current row of the current input pixel and an average value of rows adjacent to the current input pixel, Calculating an object pixel depth for an input object pixel from the map; And
And generating an image processed from a current input image having an image depth map and an object pixel depth for display on the device.
상기 오브젝트 픽셀 깊이를 계산하는 단계는 순간 최대 깊이에 기초하여 상기 오브젝트 픽셀 깊이를 계산하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.The method according to claim 6,
Wherein calculating the object pixel depth comprises calculating the object pixel depth based on an instantaneous maximum depth.
상기 로컬 깊이에 기초하여 상기 오브젝트 픽셀 깊이를 계산하는 단계는,
로컬 깊이를 현재 입력 픽셀에 수직적으로 그룹화된 행들의 그룹 최대 깊이로 지정하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.The method according to claim 6,
Wherein calculating the object pixel depth based on the local depth comprises:
And specifying a local depth as a group maximum depth of rows grouped vertically to the current input pixel.
상기 처리된 영상을 생성하는 단계는,
상기 오브젝트 픽셀 깊이를 상기 입력 오브젝트 픽셀들에 적용하여 지각 깊이를 갖는 처리된 오브젝트를 생성하는 것을 포함하는 것을 특징으로 하는 디스플레이 장치의 동작 방법.The method according to claim 6,
Wherein the step of generating the processed image comprises:
And applying the object pixel depth to the input object pixels to generate a processed object having a perceptual depth.
현재 입력 픽셀을 갖는 현재 입력 영상을 수신하는 통신부;
상기 통신부와 연결되어, 현재 입력 픽셀들의 특성상 차이점에 기초하여 입력 오브젝트 픽셀을 갖는 입력 오브젝트를 식별하는 오브젝트 검출 모듈;
상기 오브젝트 검출 모듈과 연결되어, 영상 최대 깊이, 현재 입력 픽셀의 현재 행과 상기 현재 입력 픽셀에 인접한 행들의 평균 값을 이용하여 계산된 행 평균 깊이, 로컬 깊이 및 영상 픽셀 깊이의 가중치 평균에 기초하여 상기 현재 입력 영상의 영상 깊이 맵으로부터 입력 오브젝트 픽셀에 대한 오브젝트 픽셀 깊이를 계산하는 오브젝트 깊이 모듈; 및
상기 오브젝트 깊이 모듈과 연결되고, 상기 영상 깊이 맵과 상기 오브젝트 픽셀 깊이를 갖는 현재 입력 영상으로부터 장치 상에 디스플레이할 지각 깊이를 갖는 처리된 영상을 생성하는 영상 변환 모듈;을 포함하는 것을 특징으로 하는 디스플레이 장치.In the display device,
A communication unit for receiving a current input image having a current input pixel;
An object detection module, coupled to the communication unit, for identifying an input object having an input object pixel based on a difference in characteristics of current input pixels;
Based on the image maximum depth, the weighted average of the row average depth, the local depth, and the image pixel depth calculated using the current row of the current input pixel and the average value of the rows adjacent to the current input pixel, An object depth module for calculating an object pixel depth for an input object pixel from an image depth map of the current input image; And
And an image transformation module coupled to the object depth module for generating a processed image having a perception depth to be displayed on the device from a current input image having the image depth map and the object pixel depth, Device.
상기 오브젝트 검출 모듈과 연결되어, 특정 지역의 순간 모션을 갖는 입력 오브젝트를 식별하는 오브젝트 모션 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.12. The method of claim 11,
Further comprising an object motion module coupled to the object detection module for identifying an input object having instantaneous motion of a specific region.
상기 오브젝트 깊이 모듈과 연결되어 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 위치에 기초하여 상기 깊이 후보들의 가중치 평균들을 조정하는 가중치 조정 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.12. The method of claim 11,
And a weight adjustment module coupled to the object depth module to adjust weight averages of the depth candidates based on an object pixel position of the input object pixel.
상기 오브젝트 깊이 모듈과 연결되고, 상기 입력 오브젝트 픽셀의 오브젝트 픽셀 특성들에 기초하여 상기 가중치 평균을 조정하는 가중치 조정 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.12. The method of claim 11,
And a weight adjustment module coupled to the object depth module and configured to adjust the weighted average based on the object pixel characteristics of the input object pixel.
상기 오브젝트 검출 모듈과 연결되고, 장면 정보를 갖는 입력 오브젝트 픽셀을 확인하는 장면 조정 모듈;을 더 포함하는 것을 특징으로 하는 디스플레이 장치.12. The method of claim 11,
And a scene adjustment module connected to the object detection module and identifying an input object pixel having scene information.
상기 오브젝트 깊이 모듈은 순간 최대 깊이에 기초하여 상기 오브젝트 픽셀 깊이를 계산하는 것을 특징으로 하는 디스플레이 장치.12. The method of claim 11,
Wherein the object depth module calculates the object pixel depth based on the instantaneous maximum depth.
상기 오브젝트 깊이 모듈은
상기 로컬 깊이를 현재 입력 픽셀의 수직적으로 그룹화된 행들의 그룹 최대 깊이로 지정하는 것을 특징으로 하는 디스플레이 장치.12. The method of claim 11,
The object depth module
Wherein said local depth is specified as a group maximum depth of vertically grouped rows of current input pixels.
상기 영상 변환 모듈은,
상기 오브젝트 픽셀 깊이를 상기 입력 오브젝트 픽셀에 적용하여 상기 지각 깊이를 갖는 처리된 오브젝트를 생성하는 것을 특징으로 하는 디스플레이 장치.
12. The method of claim 11,
Wherein the image conversion module comprises:
And applies the object pixel depth to the input object pixel to generate a processed object having the perceptual depth.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12168756.0A EP2536160B1 (en) | 2011-06-14 | 2012-05-21 | Display system with image conversion mechanism and method of operation thereof |
JP2012133797A JP2013003586A (en) | 2011-06-14 | 2012-06-13 | Display system with image conversion mechanism and method of operation thereof |
CN2012101996684A CN102833571A (en) | 2011-06-14 | 2012-06-14 | Display system with image conversion mechanism and method of operation thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/160,409 | 2011-06-14 | ||
US13/160,409 US8432392B2 (en) | 2010-09-02 | 2011-06-14 | Display system with image conversion mechanism and method of operation thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120138628A KR20120138628A (en) | 2012-12-26 |
KR101870764B1 true KR101870764B1 (en) | 2018-06-25 |
Family
ID=47915655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120038686A KR101870764B1 (en) | 2011-06-14 | 2012-04-13 | Display apparatus using image conversion mechanism and method of operation thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101870764B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002013141A1 (en) * | 2000-08-09 | 2002-02-14 | Dynamic Digital Depth Research Pty Ltd | Image conversion and encoding techniques |
JP2003209858A (en) * | 2002-01-17 | 2003-07-25 | Canon Inc | Stereoscopic image generating method and recording medium |
KR20070073803A (en) * | 2004-09-22 | 2007-07-10 | 컨버젼 워크스, 인크 | System and method for processing video images |
WO2011033673A1 (en) * | 2009-09-18 | 2011-03-24 | 株式会社 東芝 | Image processing apparatus |
WO2011052389A1 (en) * | 2009-10-30 | 2011-05-05 | 富士フイルム株式会社 | Image processing device and image processing method |
-
2012
- 2012-04-13 KR KR1020120038686A patent/KR101870764B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002013141A1 (en) * | 2000-08-09 | 2002-02-14 | Dynamic Digital Depth Research Pty Ltd | Image conversion and encoding techniques |
JP2003209858A (en) * | 2002-01-17 | 2003-07-25 | Canon Inc | Stereoscopic image generating method and recording medium |
KR20070073803A (en) * | 2004-09-22 | 2007-07-10 | 컨버젼 워크스, 인크 | System and method for processing video images |
WO2011033673A1 (en) * | 2009-09-18 | 2011-03-24 | 株式会社 東芝 | Image processing apparatus |
WO2011052389A1 (en) * | 2009-10-30 | 2011-05-05 | 富士フイルム株式会社 | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
KR20120138628A (en) | 2012-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8432392B2 (en) | Display system with image conversion mechanism and method of operation thereof | |
US9197884B2 (en) | System, apparatus, and method for displaying 3-dimensional image and location tracking device | |
US9049336B2 (en) | Auto-detect method for detecting image format and playback method applying the same | |
CN111614993B (en) | Barrage display method and device, computer equipment and storage medium | |
CN104081765B (en) | Image processing apparatus and image processing method thereof | |
KR101685981B1 (en) | A system, an apparatus and a method for displaying a 3-dimensional image | |
JP5257248B2 (en) | Image processing apparatus and method, and image display apparatus | |
CN108604389B (en) | Continuous depth-ordered image synthesis | |
US20140267434A1 (en) | Display system with extended display mechanism and method of operation thereof | |
US20120249543A1 (en) | Display Control Apparatus and Method, and Program | |
US9113153B2 (en) | Determining a stereo image from video | |
TWI491244B (en) | Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object | |
US20120224035A1 (en) | Electronic apparatus and image processing method | |
EP2536160B1 (en) | Display system with image conversion mechanism and method of operation thereof | |
JP5127973B1 (en) | Video processing device, video processing method, and video display device | |
KR101870764B1 (en) | Display apparatus using image conversion mechanism and method of operation thereof | |
JP4892105B1 (en) | Video processing device, video processing method, and video display device | |
US10176553B2 (en) | Image processing system with three-dimensional viewing and method of operation thereof | |
US20130287303A1 (en) | Display system with edge map conversion mechanism and method of operation thereof | |
CN102970509B (en) | The method of figure frame-rate conversion and image processor | |
KR101758274B1 (en) | A system, a method for displaying a 3-dimensional image and an apparatus for processing a 3-dimensional image | |
EP2624208A2 (en) | Display system with image conversion mechanism and method of operation thereof | |
KR101910071B1 (en) | Three-Demensional Display System with Depth Map Mechanism And Method of Operation Thereof | |
US8600114B2 (en) | Image processing apparatus and image processing method | |
US8594436B2 (en) | Method and circuit for detecting edge of fixed pattern |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |