KR20120012698A - 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법 - Google Patents

3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법 Download PDF

Info

Publication number
KR20120012698A
KR20120012698A KR1020100074845A KR20100074845A KR20120012698A KR 20120012698 A KR20120012698 A KR 20120012698A KR 1020100074845 A KR1020100074845 A KR 1020100074845A KR 20100074845 A KR20100074845 A KR 20100074845A KR 20120012698 A KR20120012698 A KR 20120012698A
Authority
KR
South Korea
Prior art keywords
additional information
binocular difference
binocular
depth
synthesis
Prior art date
Application number
KR1020100074845A
Other languages
English (en)
Other versions
KR101691034B1 (ko
Inventor
이상경
최광철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100074845A priority Critical patent/KR101691034B1/ko
Priority to US13/197,533 priority patent/US9558579B2/en
Publication of KR20120012698A publication Critical patent/KR20120012698A/ko
Priority to US15/390,448 priority patent/US10389995B2/en
Application granted granted Critical
Publication of KR101691034B1 publication Critical patent/KR101691034B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 3D 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법에 관한 것이다. 본 발명에 따른 3차원 그래픽 기반 단말기에서 부가정보 합성 방법은, 깊이 버퍼를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값으로 부가정보의 양안차를 결정하는 과정과, 상기 결정된 부가정보의 양안차를 고려하여 영상에 상기 부가정보를 오버레이하는 과정을 포함하는 것을 특징으로 한다.

Description

3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법{APPARATUS AND METHOD FOR SYNTHESIZING ADDITIONAL INFORMATION DURING RENDERING OBJECT IN 3D GRAPHIC TERMINAL}
본 발명은 3차원(3Dimension : 3D) 그래픽 기반 단말기에 관한 것으로서, 3D 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법에 관한 것이다. 본 발명에서 사용한 3D 그래픽 기반 단말기란 입체 영상(stereoscopic, multiview) 출력이 가능한 단말기에서 3D 그래픽 기반 기술로 렌더링된 영상을 양안차 기반 입체영상으로 보일 수 있는 단말기를 뜻한다.
최근 들어, 가상 현실 시스템, 컴퓨터 게임 등이 급속하게 발달됨으로써, 컴퓨터 시스템을 이용하여 실제 세계의 객체(object) 및 지형(terrain) 등을 3D(Dimension)로 표현하기 위한 기술이 연구 및 개발되고 있다.
일반적으로, 사용자는 좌 안과 우 안을 통해 서로 다른 방향에서 대상 객체를 주시함으로써 입체감을 느낄 수 있다. 따라서, 2차원 평면 디스플레이 장치에서 좌 안과 우 안의 차이 즉, 양안차가 반영된 두 장의 영상을 동시에 디스플레이 하게 될 경우, 사용자는 해당 영상을 3차원적으로 느끼게 된다.
이에 따라, 종래에는 가상 카메라를 이용하여 상기 양안차가 반영된 두 장의 영상을 얻는 기법이 제공되고 있다. 즉, 일반적인 3D 그래픽 파이프라인(Pipeline)의 정점처리 단계에서 가상 카메라를 이용하여, 가상 카메라의 절두체(frustum) 파라미터 설정을 통해 가상 공간에서 양안차를 발생시키고, 이를 기존 파이프라인 대로 렌더링하여 상기 양안차가 반영된 두 장의 영상을 획득하는 방식이 제공되고 있다.
한편, 일반적으로 서비스 되고 있는 3D 컨텐츠는 가상세계를 렌더링한 영상 위에 다양한 부가정보, 예를 들어 사용자 인터페이스(UI: User Interface) 툴바, 자막, 채팅 창, 팝업 메뉴, 인터렉션 정보 표시 창, PC 상의 인터페이스를 위해 오버레이 되는 마우스 포인터, 커서 등을 오버레이한다.
이와 같은 부가정보가 오버레이될 영상이 입체감을 가지는 영상이기 때문에, 사용자에게 자연스러운 입체 영상을 제공하기 위해서는 부가정보 역시 양안차를 가진 상태로 렌더링 되어야 한다. 하지만, 입체 변환을 고려하지 않은 3D 컨텐츠를 자동변환 했을 경우, 부가정보들은 장면을 구성하고 있는 객체들의 양안차와 일관성이 없는 양안차를 가지거나, 양안차가 없는 상태로 렌더링된다. 이 경우 최종 영상에서 부가정보 뒤에 출력되는 객체의 양안차와 부가정보의 양안차가 이루고 있는 원근감이 자연스럽지 못하기 때문에 사용자가 느끼는 입체감을 방해하고 눈의 피로도가 증가하게 된다. 또한, 3D 컨텐츠 제작시 입체 변환을 고려한다고 해도 사용자의 자유도에 따라 다양한 장면이 연출되는 3D 컨텐츠에서 모든 장면에 대해 입체 변환을 고려하면서 부가 정보의 위치를 고려하기란 쉬운 작업이 아니다. 이에 따라 부가정보 위치와 최종 영상이 가지는 입체감을 한정하는 제약 조건이 발생하게 된다.
본 발명은 상술한 바와 같은 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 목적은 3D 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법을 제공함에 있다.
본 발명의 다른 목적은 3D 그래픽 기반 단말기에서 그래픽 처리부 내 정점 처리부 또는 픽셀 처리부의 깊이 버퍼를 이용하여 부가정보를 합성하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 3D 그래픽 기반 단말기에서 깊이 버퍼를 이용하여 부가정보에 의해 은폐되는 객체의 양안차보다 큰 값으로 부가정보의 양안차를 결정하고, 상기 결정된 부가정보의 양안차를 반영하여 영상 내 해당 객체에 부가정보를 오버레이 하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 3D 그래픽 기반 단말기에서 깊이 버퍼를 이용하여 부가정보의 허용 양안차보다 작거나 같은 양안차를 가지는 영역으로 합성영역을 결정하고, 상기 결정된 합성영역에 부가정보를 삽입하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 또 다른 목적은 3D 그래픽 기반 단말기에서 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 이용하여 부가정보에 의해 은폐되는 객체의 양안차보다 큰 값으로 부가정보의 양안차를 결정하고, 상기 결정된 부가정보의 양안차를 반영하여 영상 내 해당 객체에 부가정보를 오버레이 하기 위한 장치 및 방법을 제공함에 있다.
상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 3차원 그래픽 기반 단말기에서 부가정보 합성 방법은, 깊이 버퍼를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값으로 부가정보의 양안차를 결정하는 과정과, 상기 결정된 부가정보의 양안차를 고려하여 영상에 상기 부가정보를 오버레이하는 과정을 포함하는 것을 특징으로 한다.
본 발명의 제 2 견지에 따르면, 부가정보 합성을 위한 3차원 그래픽 기반 단말기는, 깊이 버퍼를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값으로 부가정보의 양안차를 결정하는 부가정보 양안차 결정 및 합성영역 검출부와, 상기 결정된 부가정보의 양안차를 고려하여 영상에 상기 부가정보를 오버레이하는 부가정보 합성부를 포함하는 것을 특징으로 한다.
본 발명은 3D 그래픽 기반 단말기에서 객체 렌더링 시 부가정보를 합성함에 있어서, 장면을 구성하고 있는 객체들과 일관성 있는 양안차를 가지고 합성하거나, 부가정보의 허용 양안차를 가지는 영역에 부가정보를 합성함으로써, 컨텐츠 제공자가 의도한 입체감을 유지할 수 있어 사용자에게 자연스러운 입체 영상을 제공할 수 있으며, 사용자가 느끼는 피로감을 방지 할 수 있는 이점이 있다.
도 1은 본 발명에 따른 3D 그래픽 기반 단말기의 장치 구성을 도시한 블럭도,
도 2는 본 발명에 따른 3D 그래픽 기반 단말기에서 그래픽 처리부의 상세 구성을 도시한 블럭도,
도 3은 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기 내 픽셀 처리부에서 객체 렌더링 시 부가정보 합성 방법을 도시한 예시도,
도 4는 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기 내 픽셀 처리부에서 객체 렌더링 시 부가정보 합성 방법을 도시한 예시도,
도 5는 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기 내 픽셀 처리부에서 객체 렌더링 시 부가정보 합성 방법을 도시한 예시도,
도 6은 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기 내 픽셀 처리부에서 객체 렌더링 시 부가정보 합성 방법을 도시한 예시도,
도 7은 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기 내 정점 처리부에서 객체 렌더링 시 부가정보 합성 방법을 도시한 예시도, 및
도 8은 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 방법을 도시한 흐름도.
이하 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하 본 발명에서는 3D 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 방안을 제시한다. 본 발명에서 사용하는 3D 그래픽 기반 단말기란 입체 영상(stereoscopic, multiview) 출력이 가능한 단말기에서 3D 그래픽 기반 기술로 렌더링된 영상을 양안차 기반 입체영상으로 보일 수 있는 단말기를 뜻한다.
이하 본 발명에 따른 부가정보 합성 방안은, 깊이 버퍼의 이용이 가능한지 여부와, 깊이 버퍼의 이용이 가능하다면, 부가정보의 속성(특히, 위치 가변성)에 따라, 총 3가지로 구분된다. 즉, 부가정보와 최종 양안 영상의 합성에 있어서 깊이 버퍼의 이용이 가능한지 여부에 따라, 그래픽 처리부 내 픽셀 처리부를 통해 깊이 버퍼를 이용하여 부가정보를 합성하는 방법과, 그래픽 처리부 내 정점 처리부를 통해 부가정보를 합성하는 방법으로 구분되고, 깊이 버퍼를 이용하여 부가정보를 합성하는 방법 역시, 부가정보의 속성(특히, 위치 가변성)에 따라, 객체보다 큰 양안차를 가지도록 객체 위에 부가정보를 오버레이하는 방법과, 부가정보의 허용 양안차를 만족하는 영역에 부가정보를 삽입하는 방법으로 구분된다. 이와 같은 구분은 실시 예에 따른 것으로, 본원 발명에서는 구분의 기준을 한정하지는 않는다. 또한, 각각의 방법은 서로 독립적으로 구현 가능하며, 서로 의존성이 없고, 하나 또는 그 이상의 다른 조합으로 구현될 수도 있다.
이하 설명에서 단말기는 셀룰러 전화기(Cellular phone), 개인휴대통신 전화기(Personal Communication System : PCS), 복합무선단말기(Personal Data Assistant : PDA), IMT-2000(International Mobile Telecommunication-2000) 단말기, PC(Personer Computer), 노트북, TV(Television) 등을 모두 포함하는 의미이며, 이하 설명은 상기 예들의 일반적인 구성을 가지고 설명할 것이다.
또한, 이하 설명에서, 부가정보는, 3D 컨텐츠에 사용되는, 사용자 인터페이스(UI: User Interface) 툴바, 자막, 채팅 창, 팝업 메뉴, 인터렉션 정보 표시 창, PC 상의 인터페이스를 위해 오버레이 되는 마우스 포인터, 커서 등을 포함하는 의미이다.
도 1은 본 발명에 따른 3D 그래픽 기반 단말기의 장치 구성을 도시한 블럭도이다.
도시된 바와 같이, 단말기는 제어부(100), 그래픽 처리부(102), 통신부(106), 입력부(108), 표시부(110), 메모리(112)를 포함하여 구성되며, 여기서 상기 그래픽 처리부(102)는 정점 처리부(104)와 픽셀 처리부(105)를 포함하여 구성된다.
상기 도 1을 참조하면, 상기 제어부(100)는 단말기의 전반적인 동작을 제어하며, 본 발명에 따라, 3차원 그래픽 기반 단말기에서 객체 렌더링 시 최종 영상에 부가정보를 합성하기 위한 기능을 처리한다. 특히, 상기 제어부(100)는 부가정보와 최종 영상을 합성함에 있어서 깊이 버퍼의 이용이 가능한지 여부와, 깊이 버퍼의 이용이 가능하다면, 부가정보의 속성(특히, 위치 가변성)에 따라, 최종 영상에 부가정보를 합성하도록 정점 처리부(202) 또는 픽셀 처리부(206)를 제어한다.
상기 그래픽 처리부(102)는 정점 처리부(104)와 픽셀 처리부(105)를 구비하여 3차원 그래픽 데이터를 처리한다. 통상적인 기능에 더하여 본 발명에 따라 상기 그래픽 처리부(102)는 상기 제어부(100)의 제어에 따라 객체 렌더링 시 최종 영상에 부가정보를 합성하며, 상세 구성은 이후 도 2를 참조하여 살펴보도록 한다.
상기 통신부(106)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF(Radio Frequency)송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기 등을 포함한다.
상기 입력부(108)는 숫자키 버튼과, 메뉴버튼(menu), 취소버튼(지움), 확인버튼 등 다수의 기능키들을 구비하며, 사용자가 누르는 키에 대응하는 키입력 데이터를 상기 제어부(100)로 제공한다.
상기 표시부(110)는 상기 단말기의 동작 중에 발생되는 상태 정보, 제한된 숫자의 문자들, 다량의 동영상 및 정지영상 등을 디스플레이한다. 특히, 상기 표시부(110)는 상기 처리된 3차원 그래픽 데이터(즉, 부가정보가 합성된 최종 영상)를 디스플레이한다. 상기 표시부(110)는 칼라 액정 디스플레이 장치(Liquid Crystal Display : LCD)를 사용할 수 있다. 또한 입체 (stereoscopic, multiview) 영상 출력을 지원하는 물리적인 특성을 가지고 있는 장치이다.
상기 메모리(112)는 상기 제어부(100)의 처리 및 제어를 위한 프로그램의 마이크로코드와 각종 참조 데이터를 저장하고, 각종 프로그램 수행 중에 발생하는 일시적인 데이터를 저장한다. 특히, 본 발명에 따라 3차원 그래픽 기반 단말기에서 객체 렌더링 시 최종 영상에 부가정보를 합성하기 위한 프로그램을 저장한다. 또한, 상기 메모리(112)는 최종 영상에 합성하고자 하는 부가정보에 기 설정된 속성을 저장한다. 여기서, 상기 부가정보에 기 설정된 속성에는, 가로 픽셀 사이즈, 세로 픽셀 사이즈, 스케일의 허용 여부, 허용 양안차, 위치 가변성 여부 등이 포함될 수 있다.
도 2는 본 발명에 따른 3D 그래픽 기반 단말기에서 그래픽 처리부의 상세 구성을 도시한 블럭도이다.
상기 도 2를 참조하면, 그래픽 처리부(200)는 정점 처리부(202)와 픽셀 처리부(206)를 포함하여 구성되며, 여기서, 상기 정점 처리부(202)는 부가정보 양안차 결정부(204)를 포함하여 구성되고, 상기 픽셀 처리부(206)는 부가정보 양안차 결정 및 합성영역 검출부(208), 깊이 버퍼(210), 부가정보 합성부(212)를 포함하여 구성된다.
먼저, 상기 정점 처리부(104)는 3D 그래픽 파이프라인(Pipeline)의 정점처리 단계를 수행한다. 여기서, 상기 정점처리 단계는 주로 3차원 좌표계의 객체를 시점에 따라 변환하고, 2차원 좌표계로 투영 처리하는 단계이다. 즉, 상기 정점 처리부(104)는 공간에 존재하는 객체별 정점 정보(즉, 좌표 정보)를 기반으로, 해당 객체의 중심을 좌표축의 중심으로 하는 객체 좌표계를 정의하고, 상기 정의된 객체별 객체 좌표계를 기반으로, 가상 카메라 시점을 중심으로 하는 카메라 좌표계를 생성하며, 상기 카메라 좌표계를 투영하여 클립 좌표계로 변환한다.
통상적인 기능에 더하여 본 발명에 따라 상기 정점 처리부(104) 내 부가정보 양안차 결정부(204)는 제어부(100)의 제어에 따라 최종 양안 영상과 부가정보를 합성한다. 즉, 상기 부가정보 양안차 결정부(204)는 합성하고자 하는 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리(즉, 은폐되는 객체의 공간상의 깊이 값)를 이용하여, 상기 은폐되는 객체의 양안차 보다 기 결정된 값만큼 큰 값(혹은 동일한 값)으로 부가정보의 양안차를 결정하고, 상기 결정된 부가정보의 양안차를 픽셀 처리부(105)의 부가정보 합성부(212)로 제공한다. 이때, 상기 픽셀 처리부(206)의 부가정보 합성부(212)는 상기 결정된 부가정보의 양안차를 반영하여 영상 내 해당 객체에 상기 부가정보를 오버레이함으로써, 상기 부가정보를 최종 양안 영상에 합성할 수 있다.
다음으로, 상기 픽셀 처리부(105)는 3D 그래픽 파이프라인의 픽셀처리 단계, 예를 들어 알파 테스트, Z 테스트, 스텐실 테스트 등을 수행한다. 여기서, 상기 Z 테스트는 깊이 버퍼(210) 내 저장된 각 픽셀의 깊이 값을 기반으로 최종 영상 내 각 객체의 깊이를 판별하는 테스트이다.
통상적인 기능에 더하여 본 발명에 따라 상기 픽셀 처리부(105) 내 부가정보 양안차 결정 및 합성영역 검출부(208)는 제어부(100)의 제어에 따라 최종 양안 영상과 부가정보를 합성한다. 즉, 상기 부가정보 양안차 결정 및 합성영역 검출부(208)는 깊이 버퍼(210)를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값(혹은 동일한 값)으로 부가정보의 양안차를 결정하고, 상기 결정된 부가정보의 양안차를 부가정보 합성부(212)로 제공한다. 이때, 상기 부가정보 합성부(212)는 상기 결정된 부가정보의 양안차를 반영하여 영상 내 해당 객체에 상기 부가정보를 오버레이함으로써, 상기 부가정보를 최종 양안 영상에 합성할 수 있다.
혹은 다른 방법으로, 상기 부가정보 양안차 결정 및 합성영역 검출부(208)는, 깊이 버퍼(210)를 이용하여 합성하고자 하는 부가정보에 기 설정된 허용 양안차보다 작거나 같은 값의 양안차를 가지는 영역으로, 영상 내 상기 부가정보의 삽입이 가능한 후보합성영역을 검출한다. 즉, 도 3과 같이, 상기 부가정보 양안차 결정 및 합성영역 검출부(208)는, 합성하고자 하는 부가정보의 허용 양안차를 좌, 우 깊이 버퍼 상의 깊이 값으로 변환하고, 상기 허용 양안차에 대응하는 깊이 값을, 좌, 우 깊이 버퍼 내 각 픽셀들의 깊이 값과 비교하여, 상기 허용 양안차에 대응하는 깊이 값보다 크거나 같은 깊이 값을 가지는 픽셀들을 포함하는 영역을 상기 선택된 부가정보의 후보합성영역으로 검출할 수 있다. 이후, 상기 부가정보 양안차 결정 및 합성영역 검출부(208)는 상기 부가정보의 픽셀 사이즈(즉, 가로 픽셀 사이즈와 세로 픽셀 사이즈)를 기반으로, 상기 검출된 후보합성영역 중 상기 부가정보의 삽입이 가능한 임의의 일부 영역을 최종합성영역으로 결정한 후, 상기 결정된 최종합성영역에 대한 정보를 부가정보 합성부(212)로 제공한다. 이때, 상기 부가정보 합성부(212)는 상기 결정된 최종합성영역에 상기 부가정보를 삽입함으로써, 상기 부가정보를 최종 양안 영상에 합성할 수 있다.
여기서, 상기 픽셀 처리부(105) 내 깊이 버퍼(depth buffer)(210)는 Z버퍼로 구현되어 각 픽셀의 깊이 값을 저장하며, 좌 영상과 우 영상 각각에 대해 생성된다. 여기서, 상기 깊이 버퍼(210) 내 각 픽셀의 깊이 값은 최종 양안 영상에 반영될 양안차를 반영한다.
도 4는 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기 내 픽셀 처리부에서 객체 렌더링 시 부가정보 합성 방법을 도시한 예시도이다.
상기 도 4를 참조하면, 가상공간 상에 도시된 평면은 양안차가 0인 제로 시차 영역을 나타내며, 이는 제로 시차 시점보다 앞에 상이 맺히는 음의 시차 영역과, 제로 시차 시점보다 뒤에 상이 맺히는 양의 시차 영역의 경계를 나타낸다. 시간 경과에 따라 객체의 상이 맺히는 영역이 제로 시차 영역에서 음의 시차 영역으로 진행하는 경우, 단말기는 상기 객체의 상보다 앞에 부가정보의 상이 맺힐 수 있도록, 상기 부가정보의 상이 맺히는 영역 역시 제로 시차 영역에서 음의 시차 영역으로 진행하면서 상기 부가정보를 영상에 합성할 수 있다. 이에 따라 입체감의 변화가 자연스럽게 반영되는 부가정보의 이동을 구현할 수 있다. 이때, 만약 부가정보(예를 들어 마우스포인트)가 위치 가변성을 가짐에 따라 영상에서 가변적인 위치를 가질 경우, 도 6과 같이, 영상 내 존재하는 각 객체의 위치 및 시차 영역에 따라 각 객체의 상보다 앞에 부가정보의 상이 맺힐 수 있도록 상기 부가정보 역시 가변적인 위치 및 크기를 가질 수 있다. 즉, 영상이 가지는 입체감 정도에 따라 앞으로 많이 돌출된 객체 앞을 지날 때는 그 보다 더 앞에 있는 느낌의 마우스 포인트를 화면에 출력하고, 상대적으로 함몰된 객체 앞을 지날 때는 그에 맞는 입체감을 가지도록 마우스 포인트를 화면에 출력할 수 있다. 또한, 마우스 포인트의 크기 역시 입체감에 따라 변화를 주어(즉, 앞으로 돌출 될수록 큰 이미지) 자연스러운 마우스 포인트가 가능하도록 한다.
또는 다른 방법으로, 단말기는 상기 부가정보의 상이 맺히는 영역을 제로 시차 영역 상에서 상기 객체의 원근감을 망치지 않는 영역으로 이동하고, 상기 이동된 영역에서 상기 부가정보를 영상에 합성할 수 있다. 이때, 만약 상기 부가정보를 합성할 영역의 사이즈가 상기 부가정보보다 작다면, 상기 단말기는, 도 5와 같이, 상기 부가정보를 스케일하여 축소시킴으로써 최종 영상에 적용할 수 있다. 이 경우 상기 부가정보에 기 설정된 속성에는 스케일 지원이 포함되어 있어야 한다.
도 7은 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기 내 정점 처리부에서 객체 렌더링 시 부가정보 합성 방법을 도시한 예시도이다.
상기 도 7을 참조하면, 단말기는 합성하고자 하는 부가정보(701)에 의해 은폐되는 객체(702)와 화면 간 가상공간상의 거리(즉, 은폐되는 객체(702)의 공간상의 깊이 값)를 이용하여, 상기 은폐되는 객체(702)의 양안차 보다 기 결정된 값만큼 큰 값(혹은 동일한 값)으로 부가정보(701)의 양안차를 결정하고, 상기 결정된 부가정보(701)의 양안차를 반영하여 영상 내 해당 객체(702)에 상기 부가정보(701)를 오버레이함으로써, 상기 부가정보(701)를 최종 양안 영상에 합성할 수 있다.
이를 위해 먼저, 단말기는 가상공간(705)에 존재하는 객체(702)별 정점 정보(즉, 좌표 정보)를 기반으로, 해당 객체의 중심을 좌표축의 중심으로 하는 객체 좌표계(Object coordinate 또는 Local coordinate)를 정의하고, 상기 정의된 객체별 객체 좌표계를 기반으로, 가상 카메라 시점을 중심으로 하는 카메라 좌표계(Camera coordinate 또는 Eye coordinate)를 구성한다. 가상공간(705) 상에서 평면(704)는 양안차가 0인 제로 시차 영역을 나타내며, 이는 제로 시차 시점보다 앞에 상이 맺히는 음의 시차 영역과, 제로 시차 시점보다 뒤에 상이 맺히는 양의 시차 영역의 경계를 나타낸다.
이후, 상기 단말기는 합성을 통해 부가정보(701)가 최종 위치할 화면 상의 좌표(x,y)에서 Z축으로 선분을 연장하여 가상공간(705)에서 만나는 객체(702)의 정점을 결정한다. 이는 선분과 면의 방정식을 통해 결정할 수 있다. 상기 단말기는 이와 같이 결정된 객체(702)의 정점과 상기 부가정보(701)의 화면 상의 좌표를 이용하여 상기 객체(702)와 화면 간 거리(703)를 결정하고, 상기 결정된 거리(703)보다 기 결정된 값만큼 작은 거리(혹은 동일한 거리)로 상기 부가정보(701)와 화면 간 가상공간상의 거리를 결정한다. 이로써, 상기 단말기는 상기 부가정보(701)에 의해 은폐되는 객체(702)의 양안차 보다 기 결정된 값만큼 큰 값(혹은 동일한 값)으로 부가정보(701)의 양안차를 결정할 수 있으며, 이에 따라 상기 객체(702)가 가지는 입체감 만큼 음의 시차 영역에서 부가정보(701)를 합성시킬 수 있다.
도 8은 본 발명의 실시 예에 따른 3D 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 방법을 도시한 흐름도이다.
상기 도 8을 참조하면, 단말기는 801단계에서 기 선택되지 않은 부가정보 중 최종 양안 영상과의 합성이 필요한 하나의 부가정보를 선택한다.
이후, 상기 단말기는 803단계에서 부가정보와 최종 양안 영상과의 합성에 있어서 깊이 버퍼의 사용이 가능한지 여부를 검사한다.
상기 803단계에서, 깊이 버퍼의 사용이 가능함이 판단될 시, 상기 단말기는 805단계에서 상기 선택된 부가정보에 기 설정된 속성을 확인하여, 상기 선택된 부가정보가 위치 가변성이 설정된 부가정보인지 여부를 검사한다. 여기서, 상기 부가정보에 기 설정된 속성에는, 가로 픽셀 사이즈, 세로 픽셀 사이즈, 스케일의 허용 여부, 허용 양안차, 위치 가변성 여부 등이 포함될 수 있다. 여기서, 상기 허용 양안차란, 부가정보가 최종 양안 영상에서 가질 수 있는 최대 양안차가 된다.
상기 805단계에서, 상기 선택된 부가정보가 위치 가변성이 설정된 부가정보가 아님이 판단될 시, 즉 위치 고정성이 설정된 부가정보임이 판단될 시, 상기 단말기는 807단계에서 깊이 버퍼를 이용하여, 상기 선택된 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값(혹은 동일한 값)으로 부가정보의 양안차를 결정한 후 809단계로 진행한다. 여기서, 상기 은폐되는 객체의 양안차는 깊이 버퍼 내 해당 픽셀들의 깊이 값에 따라 달라지므로, 예를 들어, 상기 단말기는 깊이 버퍼에서, 상기 선택된 부가정보에 의해 은폐되는 객체를 구성하는 픽셀들의 깊이 값을 검출하고, 상기 검출된 깊이 값보다 기 결정된 값 이상 큰 값(또는 상기 검출된 깊이 값)으로 상기 선택된 부가정보의 깊이 값을 결정함으로써, 상기 선택된 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값(혹은 동일한 값)으로 부가정보의 양안차를 결정할 수 있다.
이후, 상기 단말은 상기 809단계에서 상기 결정된 부가정보의 양안차를 반영하여 영상 내 해당 객체에 상기 선택된 부가정보를 오버레이한 후, 811단계로 진행한다.
반면, 상기 805단계에서, 상기 선택된 부가정보가 위치 가변성이 설정된 부가정보임이 판단될 시, 상기 단말기는 813단계에서 깊이 버퍼를 이용하여, 상기 선택된 부가정보에 기 설정된 허용 양안차보다 작거나 같은 값의 양안차를 가지는 영역으로, 영상 내 상기 선택된 부가정보의 삽입이 가능한 후보합성영역을 검출한 후, 815단계로 진행한다. 여기서, 상기 양안차는 깊이 버퍼 내 해당 픽셀들의 깊이 값에 따라 달라지므로, 예를 들어, 상기 단말기는 상기 선택된 부가정보의 허용 양안차를 깊이 버퍼 상의 깊이 값으로 변환하고, 상기 허용 양안차에 대응하는 깊이 값을, 깊이 버퍼 내 각 픽셀들의 깊이 값과 비교하여, 상기 허용 양안차에 대응하는 깊이 값보다 크거나 같은 깊이 값을 가지는 픽셀들을 포함하는 영역을 상기 선택된 부가정보의 후보합성영역으로 검출할 수 있다.
예를 들어, 부가정보의 상이 상기 제로 시차 지점에 맺혀야 한다면, 상기 부가정보의 양안차(즉, 좌 화면과 우 화면상의 픽셀 차이)가 0을 항상 유지 해야 하며, 따라서 입체 영상에서 객체의 상이 양의 시차 영역에 맺히는 영역에서 부가정보가 합성해야 한다. 따라서, 단말기는 허용 양안차 0을 깊이 버퍼 상의 깊이 값으로 변환하고, 상기 허용 양안차 0에 대응하는 깊이 값을, 깊이 버퍼 내 각 픽셀들의 깊이 값과 비교하여, 상기 허용 양안차 0에 대응하는 깊이 값보다 크거나 같은 깊이 값을 가지는 픽셀들을 포함하는 영역을 상기 부가정보의 후보합성영역으로 검출할 수 있다.
이후, 상기 단말기는 상기 815단계에서 상기 선택된 부가정보의 픽셀 사이즈(즉, 가로 픽셀 사이즈와 세로 픽셀 사이즈)를 기반으로, 상기 검출된 후보합성영역 중 상기 선택된 부가정보의 삽입이 가능한 임의의 일부 영역을 최종합성영역으로 결정한 후, 817단계로 진행한다.
이후, 상기 단말기는 상기 817단계에서 상기 결정된 최종합성영역에 상기 선택된 부가정보를 삽입한 후, 상기 811단계로 진행한다.
반면, 상기 803단계에서, 깊이 버퍼의 사용이 불가능함이 판단될 시, 상기 단말기는 819단계에서 상기 선택된 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리(즉, 은폐되는 객체의 공간상의 깊이 값)를 이용하여, 상기 선택된 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값만큼 큰 값(혹은 동일한 값)으로 부가정보의 양안차를 결정한 후 821단계로 진행한다. 여기서, 상기 양안차는 객체와 화면 간 가상공간상의 거리에 따라 달라지므로, 예를 들어, 상기 단말기는 상기 선택된 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 결정하고, 상기 결정된 거리보다 기 결정된 값만큼 작은 거리(혹은 동일한 거리)로 상기 부가정보와 화면 간 가상공간상의 거리를 결정함으로써, 상기 선택된 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값만큼 큰 값(혹은 동일한 값)으로 부가정보의 양안차를 결정할 수 있다.
이후, 상기 단말은 상기 821단계에서 상기 결정된 부가정보의 양안차를 반영하여 영상 내 해당 객체에 상기 선택된 부가정보를 오버레이한 후, 상기 811단계로 진행한다.
이후, 상기 단말기는 상기 811단계에서 최종 양안 영상과의 합성이 필요한 부가정보가 더 존재하는지 여부를 검사한다.
상기 811단계에서, 최종 양안 영상과의 합성이 필요한 부가정보가 더 존재함이 판단될 시, 상기 단말기는 상기 801단계로 돌아가 이하 단계를 반복 수행한다.
반면, 상기 811단계에서, 최종 양안 영상과의 합성이 필요한 부가정보가 더 존재하지 않음이 판단될 시, 상기 단말기는 합성이 필요한 모든 부가정보에 대한 합성을 완료하였음을 판단하고, 본 발명에 따른 알고리즘을 종료한다.
한편, 부가정보에 속성이 기 결정되어 있지 않은 콘텐츠에 대해서는, 영상 내 존재하는 객체보다 항상 앞에 합성하도록 할 수 있다. 즉, 부가정보의 양안차를 상기 부가정보에 의해 은폐되는 객체보다 더욱 크게 설정하여 상기 부가정보가 항상 앞에 나와있도록 할 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
부가정보 양안차 결정부 204, 부가정보 양안차 결정 및 합성영역 검출부 208, 깊이 버퍼 210, 부가정보 합성부 212

Claims (28)

  1. 깊이 버퍼를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값으로 부가정보의 양안차를 결정하는 과정과,
    상기 결정된 부가정보의 양안차를 고려하여 영상에 상기 부가정보를 오버레이하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  2. 제 1 항에 있어서, 상기 양안차 결정 과정은,
    깊이 버퍼에서, 상기 부가정보에 의해 은폐되는 객체를 구성하는 픽셀들의 깊이 값을 검출하는 과정과,
    상기 검출된 깊이 값보다 기 결정된 값 이상 큰 값으로 상기 부가정보의 깊이 값을 결정하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  3. 제 1 항에 있어서,
    상기 부가정보의 속성을 확인하여, 위치 가변성이 설정된 부가정보인지 여부를 검사하는 과정을 더 포함하며,
    상기 양안차 결정 과정은, 상기 부가정보가 위치 고정성이 설정된 부가정보임이 판단될 시, 수행하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  4. 제 3 항에 있어서,
    상기 부가정보가 위치 가변성이 설정된 부가정보임이 판단될 시, 깊이 버퍼를 이용하여, 상기 부가정보에 기 설정된 허용 양안차보다 작거나 같은 값의 양안차를 가지는 영역으로, 영상 내 상기 부가정보의 삽입이 가능한 합성영역을 검출하는 과정을 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  5. 제 4 항에 있어서, 상기 합성영역 검출 과정은,
    상기 부가정보의 허용 양안차를 깊이 버퍼 상의 깊이 값으로 변환하는 과정과,
    상기 허용 양안차에 대응하는 깊이 값을, 깊이 버퍼 내 각 픽셀들의 깊이 값과 비교하는 과정과,
    상기 허용 양안차에 대응하는 깊이 값보다 크거나 같은 깊이 값을 가지는 픽셀들을 포함하는 영역을 상기 부가정보의 합성영역으로 검출하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  6. 제 4 항에 있어서,
    상기 부가정보의 픽셀 사이즈를 기반으로, 상기 검출된 합성영역 중 상기 부가정보의 삽입이 가능한 임의의 일부 영역을 최종합성영역으로 결정하는 과정과,
    상기 결정된 최종합성영역에 상기 부가정보를 삽입하는 과정을 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  7. 제 6 항에 있어서,
    상기 최종합성영역이 상기 부가정보의 픽셀 사이즈보다 작을 시, 상기 부가정보를 스케일하는 과정을 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  8. 제 1 항에 있어서,
    깊이 버퍼의 사용이 가능한지 여부를 검사하는 과정과,
    상기 깊이 버퍼의 사용이 불가능함이 판단될 시, 상기 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 이용하여, 상기 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값만큼 큰 값으로 부가정보의 양안차를 결정하는 과정을 더 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  9. 제 8 항에 있어서, 상기 깊이 버퍼의 사용이 불가능함이 판단되는 경우, 상기 양안차 결정 과정은,
    상기 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 결정하는 과정과,
    상기 결정된 거리보다 기 결정된 값만큼 작은 거리로 상기 부가정보와 화면 간 가상공간상의 거리를 결정하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
  10. 깊이 버퍼를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값으로 부가정보의 양안차를 결정하는 부가정보 양안차 결정 및 합성영역 검출부와,
    상기 결정된 부가정보의 양안차를 고려하여 영상에 상기 부가정보를 오버레이하는 부가정보 합성부를 포함하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  11. 제 10 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    깊이 버퍼에서, 상기 부가정보에 의해 은폐되는 객체를 구성하는 픽셀들의 깊이 값을 검출하고, 상기 검출된 깊이 값보다 기 결정된 값 이상 큰 값으로 상기 부가정보의 깊이 값을 결정함으로써, 상기 양안차를 결정하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  12. 제 10 항에 있어서,
    상기 부가정보의 속성을 확인하여, 위치 가변성이 설정된 부가정보인지 여부를 검사하는 제어부를 더 포함하며,
    상기 부가정보 양안차 결정 및 합성영역 검출부는, 상기 부가정보가 위치 고정성이 설정된 부가정보일 시, 상기 양안차를 결정하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  13. 제 12 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    상기 부가정보가 위치 가변성이 설정된 부가정보일 시, 깊이 버퍼를 이용하여, 상기 부가정보에 기 설정된 허용 양안차보다 작거나 같은 값의 양안차를 가지는 영역으로, 영상 내 상기 부가정보의 삽입이 가능한 합성영역을 검출하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  14. 제 13 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    상기 부가정보의 허용 양안차를 깊이 버퍼 상의 깊이 값으로 변환하고, 상기 허용 양안차에 대응하는 깊이 값을, 깊이 버퍼 내 각 픽셀들의 깊이 값과 비교하여, 상기 허용 양안차에 대응하는 깊이 값보다 크거나 같은 깊이 값을 가지는 픽셀들을 포함하는 영역을 상기 부가정보의 합성영역으로 검출하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  15. 제 13 항에 있어서,
    상기 부가정보 양안차 결정 및 합성영역 검출부는, 상기 부가정보의 픽셀 사이즈를 기반으로, 상기 검출된 합성영역 중 상기 부가정보의 삽입이 가능한 임의의 일부 영역을 최종합성영역으로 결정하고,
    상기 부가정보 합성부는, 상기 결정된 최종합성영역에 상기 부가정보를 삽입하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  16. 제 15 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    상기 최종합성영역이 상기 부가정보의 픽셀 사이즈보다 작을 시, 상기 부가정보를 스케일하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  17. 제 10 항에 있어서,
    깊이 버퍼의 사용이 가능한지 여부를 검사하는 제어부와,
    상기 깊이 버퍼의 사용이 불가능할 시, 상기 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 이용하여, 상기 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값만큼 큰 값으로 부가정보의 양안차를 결정하는 부가정보 양안차 결정부를 더 포함하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  18. 제 17 항에 있어서, 상기 부가정보 양안차 결정부는,
    상기 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 결정하고, 상기 결정된 거리보다 기 결정된 값만큼 작은 거리로 상기 부가정보와 화면 간 가상공간상의 거리를 결정함으로써, 상기 양안차를 결정하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  19. 3차원 그래픽 데이터를 처리하는 그래픽 처리부와,
    여기서, 상기 그래픽 처리부는,
    깊이 버퍼를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값으로 부가정보의 양안차를 결정하는 부가정보 양안차 결정 및 합성영역 검출부와,
    상기 결정된 부가정보의 양안차를 고려하여 영상에 상기 부가정보를 오버레이하는 부가정보 합성부를 포함하며,
    상기 처리된 3차원 그래픽 데이터를 디스플레이하는 표시부를 포함하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  20. 제 19 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    깊이 버퍼에서, 상기 부가정보에 의해 은폐되는 객체를 구성하는 픽셀들의 깊이 값을 검출하고, 상기 검출된 깊이 값보다 기 결정된 값 이상 큰 값으로 상기 부가정보의 깊이 값을 결정함으로써, 상기 양안차를 결정하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  21. 제 19 항에 있어서,
    상기 부가정보의 속성을 확인하여, 위치 가변성이 설정된 부가정보인지 여부를 검사하는 제어부를 더 포함하며,
    상기 부가정보 양안차 결정 및 합성영역 검출부는, 상기 부가정보가 위치 고정성이 설정된 부가정보일 시, 상기 양안차를 결정하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  22. 제 21 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    상기 부가정보가 위치 가변성이 설정된 부가정보일 시, 깊이 버퍼를 이용하여, 상기 부가정보에 기 설정된 허용 양안차보다 작거나 같은 값의 양안차를 가지는 영역으로, 영상 내 상기 부가정보의 삽입이 가능한 합성영역을 검출하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  23. 제 22 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    상기 부가정보의 허용 양안차를 깊이 버퍼 상의 깊이 값으로 변환하고, 상기 허용 양안차에 대응하는 깊이 값을, 깊이 버퍼 내 각 픽셀들의 깊이 값과 비교하여, 상기 허용 양안차에 대응하는 깊이 값보다 크거나 같은 깊이 값을 가지는 픽셀들을 포함하는 영역을 상기 부가정보의 합성영역으로 검출하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  24. 제 22 항에 있어서,
    상기 부가정보 양안차 결정 및 합성영역 검출부는, 상기 부가정보의 픽셀 사이즈를 기반으로, 상기 검출된 합성영역 중 상기 부가정보의 삽입이 가능한 임의의 일부 영역을 최종합성영역으로 결정하고,
    상기 부가정보 합성부는, 상기 결정된 최종합성영역에 상기 부가정보를 삽입하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  25. 제 24 항에 있어서, 상기 부가정보 양안차 결정 및 합성영역 검출부는,
    상기 최종합성영역이 상기 부가정보의 픽셀 사이즈보다 작을 시, 상기 부가정보를 스케일하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  26. 제 19 항에 있어서,
    깊이 버퍼의 사용이 가능한지 여부를 검사하는 제어부와,
    상기 깊이 버퍼의 사용이 불가능할 시, 상기 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 이용하여, 상기 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값만큼 큰 값으로 부가정보의 양안차를 결정하는 부가정보 양안차 결정부를 더 포함하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  27. 제 26 항에 있어서, 상기 부가정보 양안차 결정부는,
    상기 부가정보에 의해 은폐되는 객체와 화면 간 가상공간상의 거리를 결정하고, 상기 결정된 거리보다 기 결정된 값만큼 작은 거리로 상기 부가정보와 화면 간 가상공간상의 거리를 결정함으로써, 상기 양안차를 결정하는 것을 특징으로 하는 부가정보 합성을 위한 3차원 그래픽 기반 단말기.
  28. 3차원 그래픽 데이터를 처리하는 과정과,
    여기서, 상기 3차원 그래픽 데이터를 처리하는 과정은,
    깊이 버퍼를 이용하여, 합성하고자 하는 부가정보에 의해 은폐되는 객체의 양안차 보다 기 결정된 값 이상 큰 값으로 부가정보의 양안차를 결정하는 과정과,
    상기 결정된 부가정보의 양안차를 고려하여 영상에 상기 부가정보를 오버레이하는 과정을 포함하며,
    상기 처리된 3차원 그래픽 데이터를 디스플레이하는 과정을 포함하는 것을 특징으로 하는 3차원 그래픽 기반 단말기에서 부가정보 합성 방법.
KR1020100074845A 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법 KR101691034B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100074845A KR101691034B1 (ko) 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법
US13/197,533 US9558579B2 (en) 2010-08-03 2011-08-03 Apparatus and method for synthesizing additional information while rendering object in 3D graphic-based terminal
US15/390,448 US10389995B2 (en) 2010-08-03 2016-12-23 Apparatus and method for synthesizing additional information while rendering object in 3D graphic-based terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100074845A KR101691034B1 (ko) 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120012698A true KR20120012698A (ko) 2012-02-10
KR101691034B1 KR101691034B1 (ko) 2016-12-29

Family

ID=45555811

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100074845A KR101691034B1 (ko) 2010-08-03 2010-08-03 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법

Country Status (2)

Country Link
US (2) US9558579B2 (ko)
KR (1) KR101691034B1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420251B2 (en) * 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
US9746989B2 (en) * 2011-10-13 2017-08-29 Toshiba Medical Systems Corporation Three-dimensional image processing apparatus
US9672653B2 (en) * 2012-12-14 2017-06-06 Nvidia Corporation Stereo viewpoint graphics processing subsystem and method of sharing geometry data between stereo images in screen-spaced processing
CN107357480A (zh) * 2016-05-10 2017-11-17 上海连尚网络科技有限公司 用于在多人交互应用中实现用户间交互的方法与设备
CN106774850B (zh) * 2016-11-24 2020-06-30 深圳奥比中光科技有限公司 一种移动终端及其交互控制方法
CN108573528A (zh) * 2017-03-08 2018-09-25 无锡飞谱电子信息技术有限公司 一种三维cad建模系统
CN108335322B (zh) * 2018-02-01 2021-02-12 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
US11450352B2 (en) * 2018-05-29 2022-09-20 Sony Corporation Image processing apparatus and image processing method
WO2021072626A1 (en) * 2019-10-15 2021-04-22 Qualcomm Incorporated Methods and apparatus to facilitate regional processing of images for under-display device displays
US11570418B2 (en) 2021-06-17 2023-01-31 Creal Sa Techniques for generating light field data by combining multiple synthesized viewpoints

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007017834A2 (en) * 2005-08-09 2007-02-15 Koninklijke Philips Electronics N.V. Disparity value generator
JP2007200227A (ja) * 2006-01-30 2007-08-09 Nec Corp 立体化処理装置及び立体情報端末
JP2010086228A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 3次元表示装置および方法並びにプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7330584B2 (en) * 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
US20070017834A1 (en) * 2005-07-25 2007-01-25 Creative Technology Ltd. Portable speaker assembly
JP4621618B2 (ja) 2006-03-28 2011-01-26 株式会社東芝 図形描画装置、図形描画方法、およびプログラム
US20080094398A1 (en) * 2006-09-19 2008-04-24 Bracco Imaging, S.P.A. Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap")
CN101523924B (zh) 2006-09-28 2011-07-06 皇家飞利浦电子股份有限公司 3d菜单显示
JP4561882B2 (ja) 2008-06-18 2010-10-13 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置および画像形成方法
RU2546546C2 (ru) * 2008-12-01 2015-04-10 Аймакс Корпорейшн Способы и системы для представления трехмерных изображений движения с адаптивной к содержимому информацией
CA2752691C (en) * 2009-02-27 2017-09-05 Laurence James Claydon Systems, apparatus and methods for subtitling for stereoscopic content
CN102498720B (zh) * 2009-06-24 2015-09-02 杜比实验室特许公司 在3d或多视图视频数据中嵌入字幕和/或图形叠层的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007017834A2 (en) * 2005-08-09 2007-02-15 Koninklijke Philips Electronics N.V. Disparity value generator
JP2007200227A (ja) * 2006-01-30 2007-08-09 Nec Corp 立体化処理装置及び立体情報端末
JP2010086228A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 3次元表示装置および方法並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Textual annotation in a head tracked, stereoscopic virtual design environment, ASME 2004 International Design Engineering Tech. Conf. and Computers and Info. in Engineering Conf.(2004) *

Also Published As

Publication number Publication date
US20170111631A1 (en) 2017-04-20
US9558579B2 (en) 2017-01-31
KR101691034B1 (ko) 2016-12-29
US10389995B2 (en) 2019-08-20
US20120032950A1 (en) 2012-02-09

Similar Documents

Publication Publication Date Title
KR101691034B1 (ko) 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법
KR101690034B1 (ko) 3차원 그래픽 기반 단말기에서 객체 렌더링 장치 및 방법
CN110070556B (zh) 使用深度传感器的结构建模
JP4115188B2 (ja) 仮想空間描画表示装置
US8577762B2 (en) Detail-in-context lenses for interacting with objects in digital image presentations
CN102238408B (zh) 显示设置菜单的方法以及相应装置
US20140184589A1 (en) Detection of Partially Obscured Objects in Three Dimensional Stereoscopic Scenes
JP2006127158A (ja) 画像処理方法、画像処理装置
US20070236507A1 (en) Method and system for transparency adjustment and occlusion resolution for urban landscape visualization
CN111566596A (zh) 用于虚拟现实显示器的真实世界门户
CN111052063A (zh) 电子装置及其控制方法
US20150033157A1 (en) 3d displaying apparatus and the method thereof
CN111295693B (zh) 影像处理方法及装置
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
CN111161396A (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
US10708597B2 (en) Techniques for extrapolating image frames
EP3594906B1 (en) Method and device for providing augmented reality, and computer program
Stenicke et al. Interscopic user interface concepts for fish tank virtual reality systems
JP7210131B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2002062863A (ja) 文書表示方法、装置、および文書表示プログラムを記録した記録媒体
KR20150071594A (ko) 제어 장치를 위한 증강 현실 오버레이
US20130201178A1 (en) System and method providing a viewable three dimensional display cursor
US20240087255A1 (en) Information processing apparatus, system, control method, and non-transitory computer storage medium
US11417055B1 (en) Integrated display rendering
US20230237732A1 (en) Information processing apparatus and non-transitory computer readable medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191128

Year of fee payment: 4