KR20020063834A - 3차원 객체 상에 맵핑된 2차원 이미지의 처리 방법 - Google Patents

3차원 객체 상에 맵핑된 2차원 이미지의 처리 방법 Download PDF

Info

Publication number
KR20020063834A
KR20020063834A KR1020020005399A KR20020005399A KR20020063834A KR 20020063834 A KR20020063834 A KR 20020063834A KR 1020020005399 A KR1020020005399 A KR 1020020005399A KR 20020005399 A KR20020005399 A KR 20020005399A KR 20020063834 A KR20020063834 A KR 20020063834A
Authority
KR
South Korea
Prior art keywords
image
dimensional
face
user
point
Prior art date
Application number
KR1020020005399A
Other languages
English (en)
Other versions
KR101134333B1 (ko
Inventor
두퀘스노이스라우렌트미첼올리비에르
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20020063834A publication Critical patent/KR20020063834A/ko
Application granted granted Critical
Publication of KR101134333B1 publication Critical patent/KR101134333B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)

Abstract

3차원의 객체들을 포함하는 이미지들의 이미지 처리 방법이 제공되며, 이 방법은 3차원 객체의 한 면 상에 2차원 이미지를 맵핑하는 단계와, 사용자와 상기 3차원 객체 상에 맵핑된 2차원 이미지간의 대화 단계를 포함하며, 상기 대화 단계는 상기 사용자가 상기 3차원 객체의 상기 면 상에서 2차원 이미지의 전체 또는 일부를 이동시킬 수 있도록 되어 있다. 이 방법은 사용자가 3D 객체의 한 면 상에 고정 2D 이미지 또는 비디오 이미지를 맵핑할 수 있게 하며, 사용자가 선택한 객체의 상기 면 상에 상기 사용자가 원하는 대로 이미지를 이동시킬 수 있게 한다. 상기 이미지가 여러 부분들, 예컨대 퍼즐의 부분들에 의해 구성되면, 사용자는 예컨대 상기 퍼즐의 초기 이미지를 재구성하기 위해 상기 이미지의 각 부분을 독립적으로 이동시킬 수 있다.

Description

3차원 객체 상에 맵핑된 2차원 이미지의 처리 방법{Method of processing 2D images mapped on 3D objects}
본 발명은 3차원의 객체들을 포함하는 이미지들의 이미지 처리 방법에 관한 것으로, 상기 방법은 3차원 객체의 한 면 상에 2차원 이미지를 맵핑하는 단계를 포함한다. 본 발명은 예컨대 ICT 분야에서, 특히 비디오 게임 분야에서 사용된다.
화면 상의 3차원 객체들(이하, 3D 객체들)의 투영은 특히 비디오 게임들의 설계에서 현재 사용되고 있다. HAL(Hardware Abstraction Layer)라고 하는 수많은 인터페이스들은 설계에 사용되는 소프트웨어 언어와 3D 이미지들의 투영을 가능하게 하는 그래픽 카드간의 인터페이스들을 실현함으로써 상기 설계의 간단화를 가능하게 한다. 상기 인터페이스들의 일부는 3D 객체의 한 면상에 2차원 이미지(이하, 2D 이미지)의 인가를 가능하게 한다. 이를 "맵핑(mapping)"이라고 한다. 예컨대, 3D로 표시된 부분의 벽들 상에 테피스트리(tapestry)를, 또는 3D 정육면체의 면들 상에 텍스쳐를 맵핑할 수 있다. 또한, 예컨대, MPEG 포맷의 디지탈 비디오의 발전은 비디오 세계와 3D 세계간의 대화를 가능하게 한다. 따라서, 3D 이미지들용의 특정 설계 언어들은 이들 이미지에서 비디오들의 장래의 이용을 가능하게 한다. 이는 예컨대 표준 ISO/IEC14772-1:1997 문헌에 기재된 VRML 언어(Virtual Reality Modeling Language)의 경우이다. 이 언어는 3D 객체의 한 면 상에 MPEG 포맷의 비디오 이미지를 맵핑할 수 있는 특별한 가능성을 제공하는 장면 기술어이다. 이 언어는 또한 3D 객체의 한 면 상에의 고정 이미지의 맵핑을 가능하게 한다. 상기VRML 언어는 상이한 노드들에 의해 구성된 트리(tree)에 의해 장면을 기술한다. 상기 장면은 텍스트 파일을 통해 기술된다. 2D 이미지는 "이미지 텍스쳐" 노드에 의해 3D 객체 상에 맵핑되고, 비디오 맵핑은 "무비 텍스쳐" 노드에 의해 행해진다.
본 발명의 목적은 사용자와 3D 객체의 한 면상에 맵핑된 2D 고정 이미지 또는 비디오 이미지간의 대화를 가능하게 하는 방법을 제안하는데 있다.
도 1은 본 발명의 특징적 구성들을 나타낸 도면.
도 2는 3D 환경의 설계를 가능하게 하는 구조의 일예를 나타낸 도면.
도 3은 3D 객체들을 구비한 평행 육면체 박스(구속 박스)의 예들을 나타낸 도면.
도 4는 3D 객체를 구비한 구속 박스의 한 면의 선택을 가능하게 하는 기술을 나타낸 도면.
도 5는 3D 객체의 한 면의 선택을 가능하게 하는 기술을 나타낸 도면.
도 6은 3D 좌표들을 2D 좌표들로 변환하는 일예를 나타낸 도면.
도 7은 3D 객체의 한 면 상에 맵핑되기 전에 이미지의 형상을 변환하는 예들을 나타낸 도면.
* 도면의 주요 부분에 대한 부호의 설명
11 : 중앙 컴퓨터 유닛 12 : 마우스
13 : 컴퓨터 화면
본 발명에 따라, 서두에서 설명된 방법은 사용자와 상기 3차원 객체 상에 맵핑된 2차원 이미지간의 대화 단계를 포함하며, 상기 대화 단계는 상기 사용자가 상기 3차원 객체의 상기 면 상에서 2차원 이미지의 전체 또는 일부를 이동시킬 수 있도록 된 것을 특징으로 한다.
본 발명은 다음과 같은 측면들을 고려한다. 사용자가 2D 고정 이미지 또는 비디오 이미지(이하, 용어 "이미지"는 고정 이미지와 비디오 이미지라고 함)를 3D 객체의 한 면상에 맵핑할 때, 상기 이미지는 상기 면의 크기를 취하고, 이 동작으로부터 얻어진 내용과 대화할 수는 없다. 예컨대, 3D 객체의 면 상의 이미지를 이동시키거나, 상기 이미지가 여러 부분들로 구성된 경우에 상기 이미지의 일부분을 이동시키는 것이 바람직하다.
종래 기술에 따라, 사용자는 2D 평면 내에서 이미지를 이동시킬 수 있다.예컨대, MPEG-4 규격은 사용자가 비디오 객체와 대화할 수 있게 하며, 이에 의해 사용자는 비디오 객체의 디스플레이 윈도우 내에서 이 객체의 전체 또는 일부를 이동시킬 수 있다.
다음과 같은 원리로 사용자는 특히 원근을 고려함으로써 3D 객체 상에 맵핑된 2D 이미지를 이동시킬 수 있다. 각 3D 객체는 고려중인 객체를 포함하는 최소 평행 육면체 직사각형인 3D 박스 내에 포함된다. 사용자가 3D 객체의 한 면을 선택하기를 원할 때, 사용자는 마우스에 의해 이동이 제어되는 커서를 상기 면 상에 위치시키고 마우스를 클릭한다. 관측점와 사용자가 클릭한 위치 사이의 가상 반경으로 사용자가 선택하기를 원하는 박스 및 이 박스의 면을 결정할 수 있다. 선택된 박스의 면 상에의 3D 객체의 면들의 투영에 의해, 사용자가 선택하기를 원하는 상기 면의 점뿐만 아니라 사용자가 선택하기를 원하는 객체의 면을 알 수 있다. 이 점은 2D 이미지 또는 이 이미지의 일부분이 맵핑되는 면의 위치에 대응된다. 예컨대, MPEG-4 비디오 이미지의 경우에, 이 점은 디스플레이 윈도우 내의 비디오 이미지의 일부분의 위치에 대응될 수 있다. 문제는 디스플레이 윈도우, 즉 2D 내의 상기 점의 좌표를 알아내는 것이다. 사용자에 의해 선택된 3D 객체의 면의 점의 3D 좌표뿐만 아니라 3D 객체의 면의 3D 좌표를 알면, 중심 계산을 기초로 하는 좌표들의 변환은 이 점의 2D 좌표를 예컨대 디스플레이 윈도우에 대응하는 2D 평면 내에서 알 수 있게 한다. 일단 이 점의 2D 좌표가 알려지면, 종래에 해결된 2D 문제로 문제가 옮겨간다. 사용자가 이 점을 이동시킬 때, 마우스에 의해 제어되는 커서에 의해 상기 점은 먼저 2D 평면 내에서, 예컨대 이 2D 평면 내의 다른 점쪽의디스플레이 윈도우 내에서 이동된다. 이 다른 점의 2D 좌표가 알려지면, 위에서 설명한 형태와 동일한 형태의 좌표의 변환에 의해 상기 다른 점의 3D 좌표들을 알 수 있다. 마우스에 의해, 사용자는 3D 객체의 한 면 상에서 원하는 대로 선택한 점을 이동시킬 수 있다.
이 방법은 3D 객체의 면들 상에 2D 이미지의 보다 융통성있는 맵핑을 가능하게 하는 이점을 가지고 있다. 실제로, 사용자는 예컨대 컴퓨터에 접속된 마우스를 간단히 사용하여 3D 객체의 한 면 상의 원하는 위치에 이미지를 배치할 수 있고, 상기 면 상에서 상기 사용자가 원하는 상기 이미지를 이동시킬 수 있다. 이 방법은 예컨대 정지 상태 또는 이동 상태인 3D 객체의 한 면 상에 퍼즐을 생성할 수 있다는 점에서 설계자가 흥미를 가질 수 있다. 실제로, 2D의 퍼즐은 이미지의 여러 부분들의 조립이다. 제 1 시간 기간에, 상기 이미지는 컴퓨터의 화면 또는 이 화면 상의 윈도우일 수 있는 게임 영역 상에서 불규칙적으로 분포된 여러 부분들로 분리된다. 다음에, 상기 사용자는 초기 이미지를 재구성하기 위해 각각의 부분을 이동시켜야 하고, 한 부분은 이 부분 상에 커서를 위치시키고, 컴퓨터에 연결된 마우스에 의해 상기 커서의 이동을 제어함으로써 이동될 수 있다. 본 발명에 따른 방법에 의해, 상기 게임 영역은 3D 객체의 한 면이 될 수 있다. 이와 같은 퍼즐은 MPEG-4 포맷의 비디오 이미지의 여러 부분들을 포함할 수 있음을 주의해야 한다. 하지만, 이 방법은 다수의 용도를 가지고 있으며, 3D 객체의 한 면 상의 퍼즐의 설계에 한정되지 않는다.
바람직한 실시예의 설명
본 발명 및 본 발명의 부가적인 특징적 구성에 대해 도면을 참조하여 보다 상세히 설명한다.
도 1에는 본 발명의 특징적 구성이 예시되어 있다. 본 발명에 따른 방법이 실행되는 시스템은, 중앙 컴퓨터 유닛(11), 커서(19)를 제어하는 마우스(12), 이미지(15)와 같은 2D 이미지들이 맵핑될 수 있는 면들을 가진 평행 육면체(14)와 같은 3D 객체들을 디스플레이하는 컴퓨터 화면(13)을 구비하고 있다.
상기 예시된 예는 실린더(17), 정육면체(16) 또는 평행 육면체(14)와 같은 3D 객체들에 적용된다. 이 예에서, 이미지(15)는 상기 평행 육면체(14)의 면들중 한 면(14a) 상에 맵핑된다. 퍼즐의 경우에, 이미지(15)는 퍼즐의 일부분일 수 있다. 사용자가 이미지(15)를 이동시키기를 원할 때, 사용자는 커서(19)를 컴퓨터 화면(13) 상의 제 1 이미지(15)의 위치로 이동시키기 위해 중앙 컴퓨터 유닛(11)에 연결된 마우스(12)를 사용한다. 다음에, 사용자는 이미지(15)를 선택하기 위해 마우스(12)의 키들중 하나의 키를 클릭한다. 다음에, 사용자는 평행 육면체(14)의 면(14a)의 다른 위치에 이미지를 배치하기 위해, 상기 마우스(12)에 의해 상기 이미지(15)를 이동시킬 수 있다. 상기 퍼즐의 경우에, 평행 육면체(14)의 면(14a)은 게임 영역을 나타낼 수 있고, 게임의 목적은 상기 퍼즐의 초기 이미지를 재구성하기 위해 상기 면(14a) 상에 맵핑되는 각각의 부분을 이동시키는 것이다. 상기 마우스(12)는 예컨대, 핸들, 피스톨 또는 사용자의 손가락과 같은 수많은 제어 장치들에 의해 대체될 수 있고, 후자의 경우에 컴퓨터 화면(13)은 터치 스크린임에 주의해야 한다.
도 2에는 3D 환경의 설계를 가능하게 하는 구조가 예시되어 있다. 예시된 예는 VRML 언어를 이용하는 설계에 적용된다. 상기 구조는 소프트웨어(21), VRML 인터페이스(22), HAL 인터페이스(23) 및 그래픽 카드(24)를 구비하고 있다.
상기 HAL 인터페이스(23), 예컨대 OpenGL은 소프트웨어(21)를 생성하는데 사용되는 언어와 그래픽 카드(24)간의 접속을 실현할 수 있는 가능성을 제공한다. 상기 HAL 인터페이스(23)는 3D 그래픽 라이브러리이며, 즉 원시 3D 그래픽의 레이아웃, 카메라 위치, 빛, 3D 객체의 표면 상에 맵핑될 이미지 및 이 종류의 다른 정보을 기초로, 예컨대 화면 상의 마크, 원근 투영을 변경하고, 3D 객체에 의해 은폐된 부분들을 제거한다. 다음에, 상기 인터페이스는 상기 3D 객체들의 디스플레이를 위해 필요한 요소들을 제공하기 위해 그래픽 카드(24)를 처리한다. 따라서, 상기 HAL 인터페이스(23)는 그래픽 카드(24)의 고려 없이 3D 환경이 설계되는 것을 가능하게 하며, 유일한 요건은 설계에 사용된 언어, 즉 여기서는 VRML과 상기 HAL 인터페이스(23) 간의 호환성이다. 상기 VRML 인터페이스(22)는 텍스트 언어인 VRML 언어를 상기 HAL 인터페이스(23)에 호환 가능한 언어, 예컨대 C++ 언어로 변환함으로써 상기 호환성을 보장한다. 유사하게, 상기 그래픽 카드(24)는 디스플레이해야 하는 상기 3D 환경을 기술하는 소프트웨어를 고려하지 않고 설계될 수 있으며, 유일한 요건은 상기 그래픽 카드(24)에 사용된 언어와 상기 HAL 인터페이스(23) 간의 호환성이다.
도 3에는 3D 객체들을 포함하는 구속 박스들의 예들이 도시되어 있다.
도 3의 (a)에는 실린더를 포함하는 구속 박스가 도시되어 있다. 이 박스의높이와 폭은 상기 실린더의 직경과 동일하고, 그 높이는 상기 실린더의 길이와 동일하다. 도 3의 (b)에는 직사각형이 아닌 평행 육면체를 포함하는 구속 박스가 도시되어 있다. 이 박스의 높이는 직사각형이 아닌 평행 육면체의 면들 중 하나의 면의 대각선과 동일하고, 그 폭은 이 면의 다른 대각선과 동일하며, 그 길이는 비-직사각형 평행 육면체의 길이와 동일하다. 도 3의 (c)에는 복잡한 객체를 포함하는 구속 박스가 도시되어 있다. 이 박스의 치수들은 그 크기를 최대값으로 제한하기 위해 상기 복잡한 객체의 치수들의 함수로서 계산된다. 정육면체의 경우에, 이 정육면체를 포함하는 구속 박스는 이 정육면체와 합쳐짐에 주의한다. 이는 평행 육면체 직사각형의 경우에도 마찬가지이다.
도 4에는 3D 객체를 포함하는 구속 박스의 한 면의 선택을 가능하게 하는 기술이 예시되어 있다. 예시된 예는 객체(45)를 포함하는 구속 박스(46)에 적용된다.
사용자가 객체(45)의 면들 중 한 면을 선택하기를 원할 때, 제 1 단계는 구속 박스(46)의 한 면을 선택하는 단계로 구성된다. 사용자는 컴퓨터 화면(13) 상의 점(42)을 클릭한다. 즉, 커서(19)가 이 점(42)에 위치될 때 사용자는 마우스(12) 상의 키들 중 한 키를 누른다. 다음에, 가상 반경(47)이 계산되며, 이 가상 반경은 가상 관측점(40)와 화면 상의 점(42)을 연결한다. 관측점는 예컨대 컴퓨터 화면(13)의 앞에 위치된 사용자 얼굴의 중간에 고정되고 그 중간에 대응할 수 있는 컴퓨터 화면(13)의 바깥쪽에 위치된 점이다. 다음에, 상기 가상 반경(47)과 3D 객체를 포함하는, 처음으로 만나게 되는 구속 박스간의 교차점이 계산된다.이 예에서, 상기 처음으로 만나게 되는 구속 박스는 상기 객체(45)를 포함하는 구속 박스(46)이다. 다음에, 교차점(43)이 얻어진다. 상기 가상 반경은 일반적으로 3D 객체를 포함하는 하나의 구속 박스와의 2 개의 교차점을 갖고 있음에 주의해야 한다. 보유된 교차점은 컴퓨터 화면(13)에 가장 가깝게 배치된 점이 되게 된다. 다음에, 상기 구속 박스(46)의 선택된 면은 상기 교차점(43)을 포함하는 면이다. 상기 객체(45)의 선택된 면과 상기 가상 반경(47)간의 교차점은 선택된 점(44)이다. 상기 객체(45)의 선택된 면의 결정에 대해 도 5를 참조로 보다 상세히 설명한다.
도 5에는, 3D 객체의 한 면의 선택을 가능하게 하는 기술이 예시되어 있다. 여기서 예시된 예는 객체(45)의 한 면의 선택에 적용되며, 여기서, 구속 박스(46)의 선택된 면과 교차점(43)은 알려져 있다.
다음과 같은 원리로 객체(45)의 한 면을 선택할 수 있다. 상기 객체(45)는 투영(56)을 얻기 위해 구속 박스(46)의 선택된 면 상에 투영된다. 이 투영은 상기 객체(45)의 면들 또는 면들의 부분들에 대응하는 5 개의 섹터들(51 내지 55)을 구비한다. 상기 교차점(43)을 포함하는 섹터, 즉 여기서 예시된 섹터(51)가 유지된다. 따라서, 객체(45)의 선택된 면은 투영(56) 내의 섹터(51)가 대응되는 면이다. 따라서, 도 4 및 도 5에 의해 예시된 기술은 사용자에 의해 선택된 컴퓨터 화면(13) 상의 점(42)을 기초로 상기 사용자가 선택하기를 원하는 객체의 면의 3D 좌표를 알 수 있는 가능성을 제공한다. 이 기술들은 또한 가상 반경과 사용자가 선택하기를 원하는 객체의 면간의 교차점인 상기 선택된 점(44)의 3D 좌표를 알 수있는 가능성을 제공한다. 예컨대, 퍼즐의 경우에, 상기 선택된 점(44)은 상기 퍼즐의 부분들 중 한 부분의 위치에 대응될 수 있고, 객체의 선택된 면은 게임 영역에 대응될 수 있다. 사용자가 선택된 면의 다른 위치로 상기 선택된 점(44) 상에 위치된 부분을 배치하기 위해 상기 부분을 이동시키기를 원할 때, 사용자는 마우스(12)에 의해 상기 선택된 점(44)을 클릭하고 마우스를 이동시키면서 그 클릭을 유지한다. 이 동작이 가능하도록, 상기 부분이 게임 영역 내에서, 즉 사용자가 3D 환경 내에서 이동시킬 때의 2D 환경 내에서 얼마나 이동되는지를 알고 있어야 한다. 따라서, 상기 좌표는 예컨대 게임 영역 내의 선택된 점(44)의 좌표를 알기 위해 변환되어야 한다. 이 좌표 변환에 대하여 도 6을 참조하여 보다 상세히 설명한다.
도 6에는 3D 좌표들을 2D 좌표들로 변환하는 일예가 예시되어 있다. 이 예는 3D 객체의 4개의 정점(A,B,C,D)을 가진 면(ABCD 면)에 관련된 제 1 점(K)에 적용된다. 고려된 이 예에서, 상기 ABCD 면은 직사각형의 형상을 가지고 있지만, 이하에서 설명되는 방법은 예컨대 임의 형상을 가진 객체(45)의 선택된 면의 선택된 점(44)에 유사하게 적용된다. 여기서 설명된 방법의 목적은 상기 제 1 점(K)의 3D 좌표들을, 예컨대 퍼즐의 경우의 게임 영역 또는 비디오 이미지의 경우의 디스플레이 윈도우에 대응하는 평면(A"B"C"D") 내의 제 3 점(K")의 2D 좌표들로 변환하는 것이다.
제 1 단계는 제 1 점(K)의 3D 좌표들을 정사각형 기준 프레임(1)인 기준 프레임(A'B'C'D') 내의 제 2 점(K')의 2D 좌표로 변환하는 것이다. 즉, A'는좌표(0,0)를 가지고, B'는 좌표(1,0)를 가지며, C'는 좌표(1,1)를 가지고, D'는 좌표(0,1)를 가진다. 이 때문에, 웨이트들(α,β,γ,δ)이 산출되고, 이에 의해 K는 ABCD 면의 각 점(M)에 대해 유효한 벡터 관계에 의해 A,B,C,D의 중심이 되게 되며, 여기서MA는 MA 벡터를 나타내고, 합(α+β+γ+δ)은 0과는 다르다:
αMA+ βMB+ γMC+ δMD= (α+β+γ+δ)MK
한편, 이 식의 해답은 3 개의 대수 방정식이들이 얻어질 수 있는 ABCD 평면에 임의 벡터가 직교하지도 않고 상기 ABCD 평면에 포함되지도 않으므로 상기 임의 벡터 상에 상기 벡터 관계를 투영함으로써 구해지며, 한편, 제 4 대수 방정식은 α+β+γ+δ임을 의미하는 3D 좌표들과 같이 (0,0,0)를 가진 특정 점(M)으로서 상기 점(O)을 선택함으로써 얻어진다. 웨이트들(α,β,γ,δ)은 4개의 미지수를 가진 4 개의 식을 풀므로써 산출된다. 상기 점(K')은 해당 계수들(α,β,γ,δ)을 가진 점들(A'B'C'D')의 중심이다. 다음에, 점(K")의 2D 좌표들을 구하기 위해, A"B"C"D" 평면을 기준 프레임(A'B'C'D')으로부터 얻을 수 있는 유사성을 결정하고, 이 유사성이 점(K')에 적용된다. 사용자가 선택하기를 원하는 3D 객체의 점과 면은 이와 같이 알 수 있으므로, 퍼즐의 경우의 게임 영역과 비디오 이미지의 경우의 디스플레이 윈도우를 알 수 있다. 따라서, 사용자는 마우스(12) 또는 다른 제어 장치에 의해 선택된 면 상의 선택된 점을 이동시킬 수 있다. 이 작용은 상기 3D 객체들이 움직이는 중일 때도 가능하며, 도 4 내지 도 6을 참조로 설명된 기술들은 이 경우에 동일함에 주의한다.
도 7에는 3D 객체의 한 면 상에 맵핑되기 전에 이미지의 형상을 변환하는 에들이 예시되어 있다. 특정 소프트웨어 언어들, 예컨대 VRML은 3D 객체의 한 면 상에 맵핑하기를 원하는 이미지의 형상의 변형을 가능하게 한다. 예컨대, 퍼즐의 경우에 게임 영역을 변형할 수 있고, 또는 비디오 이미지의 경우에 디스플레이 윈도우를 변형할 수 있다. 이는 기준 프레임 A'B'C'D'를 변형함으로써 행해진다. 도 7에는 기준 프레임 A'B'C'D'를 변환하는 3가지의 예들, 즉 제 1 변환 기준 프레임(A1B1C1D1)을 도출하는 제 1 예, 제 2 변환 기준 프레임(A2B2C2D2)를 도출하는 제 2 예, 제 3 변환 기준 프레임(A3B3C3D3)을 도출하는 제 3 예가 도시되어 있다. 점(K')이 결정된 때, 상기 점(K")의 좌표를 계산하기 전에 보충 단계가 필요하다. 제 1 변환의 경우에, 점(K")의 좌표를 얻기 위해 기준 프레임(A'B'C'D')으로부터 평면(A"B"C"D")을 얻을 수 있는 제 1 변환점(K1)의 유사성을 적용하기 전에 제 1 변환점(K1)의 좌표를 계산한다. 상기 점(K1)의 좌표들은 다음과 같이 계산된다. 상기 점(K')이 점들(A',B',D')에 의해 형성된 삼각형 내에 놓이면, 여기서 설명한 예의 경우와 같이 다음의 식들이 적용된다:
· xK1=xK'*(xB1-xA1)+(1-yK')*xA1+yK'*xD1
· yK1=yK'*(yD1-yA1)+(1-xK')*yA1+xK'*yB1
상기 점(K')이 점들(B',C',D')에 의해 형성된 삼각형 내에 놓이는 경우에는, 다음의 식이 적용된다.
· xK1=1-((1-xK')*(xC1-xD1)+yK'*(1-xC1)+(1-yK')*(1-xB1))
· yK1=1-((1-yK')*(xC1-xB1)+xK'*(1-yC1)+(1-xK')*(1-yD1))
제 2 변환의 경우에 제 2 변환점(K2)의 좌표들과 제 3 변환의 경우의 제 3변환점(K3)의 좌표들은 변환점(K1)의 좌표들와 동일한 방식으로 계산된다.
상기 도면들을 참조한 위의 설명은 본 발명을 한정하는 것이 아니고 예시하는 것이다. 이에 대한 여러 설명은 다음과 같다.
도 2 내지 도 7은 VRML 언어의 예에 적용된다. 본 발명은 3D 환경을 기술하는 다른 언어들이 3D 객체들의 면들 상에 2D 고정 이미지들 또는 비디오 이미지들을 맵핑할 수 있는 가능성을 제공할 수 있으면 상기 언어들에 사용될 수도 있다.
도면의 설명에서 사용된 퍼즐의 예는 본 발명을 이용하는 한가지 가능성이다. 본 발명은 이 예에 한정되지 않고 3D 요소들 상에 2D 요소들을 맵핑하는 모든 형태에 적용됨은 분명하다.
원래, 데이타 처리 장치, 예컨대 적절히 프로그래밍된 컴퓨터 회로에 의해 본 발명에 따른 방법을 구현할 수 있다. 프로그래밍 메모리에 구비된 한 세트의 명령들은 상기 컴퓨터 회로가 이전에 설명된 상이한 동작들을 수행할 수 있게 한다. 상기 세트의 명령들은 상기 세트의 명령들을 포함하는 디스크와 같은 데이타 캐리어를 판독함으로써 상기 프로그래밍 메모리에 로딩될 수 있다. 판독 동작은 통신망, 예컨대 인터넷에 의해 수행될 수 있다. 이 경우에, 서비스 제공자는 상기 명령 세트들을 원하는 위치에 놓아 두어야 한다.
본 발명에 따라, 사용자는 3D 객체의 한 면 상에서 원하는 대로 선택한 점을 이동시킬 수 있다. 본 발명은 3D 객체의 면들 상에 2D 이미지의 보다 융통성있는맵핑을 가능하게 한다.

Claims (7)

  1. 3차원의 객체들을 포함하는 이미지들내 이미지들을 처리하는 방법으로서,
    3차원 객체의 한 면 상에 2차원 이미지를 맵핑하는 단계를 포함하는, 상기 이미지 처리 방법에 있어서,
    사용자와 상기 3차원 객체 상에 맵핑된 상기 2차원 이미지간의 대화 단계를 포함하며,
    상기 대화 단계는 상기 사용자가 상기 3차원 객체의 상기 면 상의 2차원 이미지의 전체 또는 일부를 이동시킬 수 있도록 된 것을 특징으로 하는 이미지 처리 방법.
  2. 제 1 항에 있어서,
    상기 대화 단계는,
    - 상기 3 차원 객체를 포함하는 최소 평행 육면체 직사각형을 결정하는 단계와;
    - 상기 사용자에 의해 선택된 상기 평행 육면체의 면을 결정하는 단계와;
    - 상기 평행 육면체의 선택된 면으로부터 상기 사용자에 의해 선택되는 3차원 객체의 면과 점을 결정하는 단계와;
    - 상기 3차원 객체의 선택된 점의 3차원 좌표들을 2차원 좌표들로 변환하는 단계와;
    상기 3차원 객체의 선택된 점을 2차원 평면 내에서 이동시키는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  3. 제 2 항에 있어서,
    상기 3차원 객체의 선택된 점의 3차원 좌표들을 2차원 좌표들로 변환하는 단계는 상기 3 차원 객체의 선택된 점이 상기 3차원 객체의 선택된 면의 정점들의 중심인 웨이트들의 계산으로부터, 이와 같이 계산된 웨이트들을 상기 2 차원 이미지의 정점들에 적용함으로써, 상기 2차원 좌표들을 결정하도록 된 것을 특징으로 하는 이미지 처리 방법.
  4. 제 2 항에 있어서,
    상기 사용자에 의해 선택되는 상기 평행 육면체의 면을 결정하는 상기 단계는 주어진 관측점와 화면 상의 사용자에 의해 선택된 점간의 가상 반경을 기초로 상기 면을 결정하도록 되어 있으며, 이에 의해 상기 3차원 객체들을 포함하는 이미지들의 디스플레이가 가능한 것을 특징으로 하는 이미지 처리 방법.
  5. 제 4 항에 있어서,
    상기 사용자에 의해 선택되는 상기 3차원 객체의 면과 점을 결정하는 상기 단계는 상기 평행 육면체의 선택된 면 상에 상기 3차원 객체의 면들을 투영하도록 되어 있고,
    상기 3차원 객체의 선택된 면은 그 투영이 상기 가상 반경과 상기 평행 육면체의 선택된 면간의 교차점을 포함하는 면이고,
    상기 3차원 객체의 선택된 점은 상기 가상 반경과 상기 3차원 객체의 선택된 면간의 교차점인 것을 특징으로 하는 이미지 처리 방법.
  6. 제 1 항에 있어서,
    상기 대화 단계는 마우스에 의해 이동이 제어되는 커서에 의해 행해지고,
    상기 사용자는 상기 이미지를 선택하기 위해 이동될 2차원 이미지를 클릭하고, 상기 선택된 이미지를 이동시키기 위해 상기 커서를 이동시키는 것을 특징으로 하는 이미지 처리 방법.
  7. 데이타 처리 장치의 컴퓨터 프로그램 제품에 있어서,
    일단 상기 데이타 처리 장치에 로딩되면, 제 1 항 내지 제 6 항 중 어느 한 항에 청구된 방법의 단계들을 상기 데이타 처리 장치가 수행할 수 있게 하는 한 세트의 명령들을 포함하는, 컴퓨터 프로그램 제품.
KR1020020005399A 2001-01-30 2002-01-30 3차원 객체 상에 맵핑된 2차원 이미지의 처리 방법 KR101134333B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0101237A FR2820269A1 (fr) 2001-01-30 2001-01-30 Procede de traitement d'images en 2d appliquees sur des objets en 3d
FR0101237 2001-01-30

Publications (2)

Publication Number Publication Date
KR20020063834A true KR20020063834A (ko) 2002-08-05
KR101134333B1 KR101134333B1 (ko) 2012-04-09

Family

ID=8859401

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020005399A KR101134333B1 (ko) 2001-01-30 2002-01-30 3차원 객체 상에 맵핑된 2차원 이미지의 처리 방법

Country Status (8)

Country Link
US (1) US6853383B2 (ko)
EP (1) EP1227442B1 (ko)
JP (1) JP2002319038A (ko)
KR (1) KR101134333B1 (ko)
CN (1) CN1369865A (ko)
AT (1) ATE280982T1 (ko)
DE (1) DE60201692T2 (ko)
FR (1) FR2820269A1 (ko)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8396328B2 (en) 2001-05-04 2013-03-12 Legend3D, Inc. Minimal artifact image sequence depth enhancement system and method
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
JP2006004158A (ja) * 2004-06-17 2006-01-05 Olympus Corp 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体
US7466244B2 (en) * 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US8850011B2 (en) * 2005-04-21 2014-09-30 Microsoft Corporation Obtaining and displaying virtual earth images
US20080122839A1 (en) * 2006-11-28 2008-05-29 Microsoft Corporation Interacting with 2D content on 3D surfaces
CN101206767B (zh) * 2006-12-22 2010-12-15 财团法人资讯工业策进会 将平面图像转换至三维效果图像的图像转换装置及方法
KR100894874B1 (ko) * 2007-01-10 2009-04-24 주식회사 리얼이미지 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법
GB2448185A (en) * 2007-04-05 2008-10-08 Generated Packaging Ltd Comp High definition image generation from low definition representation
JP5180288B2 (ja) * 2007-04-11 2013-04-10 ジーブイビービー ホールディングス エス.エイ.アール.エル. デジタルビデオエフェクト(dve)を高める方法及び装置
US7818690B2 (en) * 2007-06-15 2010-10-19 Microsoft Corporation Framework for creating user interfaces containing interactive and dynamic 3-D objects
US20090219383A1 (en) * 2007-12-21 2009-09-03 Charles Gregory Passmore Image depth augmentation system and method
CN101196988B (zh) * 2007-12-25 2010-06-02 哈尔滨工业大学 三维掌纹身份鉴别系统的手掌定位及中心区提取方法
US8125481B2 (en) * 2008-03-21 2012-02-28 Google Inc. Lightweight three-dimensional display
KR20110004868A (ko) * 2008-04-09 2011-01-14 이얄 아밋저 2차원에서 3차원으로 게임을 전환하는 방법 및 시스템
US8298060B2 (en) 2008-04-15 2012-10-30 Markus Weichselbaum Method and system for providing a digital jigsaw puzzle and using the puzzle as an online advertising vehicle
US9519396B2 (en) * 2010-09-28 2016-12-13 Apple Inc. Systems, methods, and computer-readable media for placing an asset on a three-dimensional model
CN102074026B (zh) * 2010-09-29 2012-10-03 深圳市蓝韵实业有限公司 一种在医学图像上显示矢量图形的方法
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9113130B2 (en) 2012-02-06 2015-08-18 Legend3D, Inc. Multi-stage production pipeline system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9111394B1 (en) * 2011-08-03 2015-08-18 Zynga Inc. Rendering based on multiple projections
JP2014050420A (ja) * 2012-09-04 2014-03-20 Epoch Co Ltd ジグソーパズルの組立サポートシステム
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
GB201419438D0 (en) * 2014-10-31 2014-12-17 Microsoft Corp Modifying video call data
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
CN109118576A (zh) * 2018-07-19 2019-01-01 桂林电子科技大学 基于bds位置服务的大型场景三维重建系统及重建方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5333245A (en) * 1990-09-07 1994-07-26 Modacad, Inc. Method and apparatus for mapping surface texture
JP3332499B2 (ja) * 1993-10-01 2002-10-07 富士通株式会社 テクスチャマッピング方法
US5903270A (en) * 1997-04-15 1999-05-11 Modacad, Inc. Method and apparatus for mapping a two-dimensional texture onto a three-dimensional surface
US5923334A (en) * 1996-08-05 1999-07-13 International Business Machines Corporation Polyhedral environment map utilizing a triangular data structure
US5898438A (en) * 1996-11-12 1999-04-27 Ford Global Technologies, Inc. Texture mapping of photographic images to CAD surfaces
US6384835B1 (en) * 1998-02-17 2002-05-07 Silicon Graphics, Inc. Computer generated paint stamp compensation
US6437782B1 (en) * 1999-01-06 2002-08-20 Microsoft Corporation Method for rendering shadows with blended transparency without producing visual artifacts in real time applications

Also Published As

Publication number Publication date
FR2820269A1 (fr) 2002-08-02
EP1227442A1 (fr) 2002-07-31
ATE280982T1 (de) 2004-11-15
KR101134333B1 (ko) 2012-04-09
JP2002319038A (ja) 2002-10-31
DE60201692T2 (de) 2006-01-26
US20020101430A1 (en) 2002-08-01
DE60201692D1 (de) 2004-12-02
EP1227442B1 (fr) 2004-10-27
US6853383B2 (en) 2005-02-08
CN1369865A (zh) 2002-09-18

Similar Documents

Publication Publication Date Title
KR101134333B1 (ko) 3차원 객체 상에 맵핑된 2차원 이미지의 처리 방법
KR102494795B1 (ko) 상이한 비디오 데이터 스트림들 내의 상이한 유리한 지점들로부터 표현된 가상 오브젝트 및 실세계 오브젝트에 기초하여 병합된 현실 장면을 생성하기 위한 방법들 및 시스템들
Billinghurst et al. The MagicBook: a transitional AR interface
Billinghurst et al. The magicbook-moving seamlessly between reality and virtuality
US6426757B1 (en) Method and apparatus for providing pseudo-3D rendering for virtual reality computer user interfaces
US7920144B2 (en) Method and system for visualization of dynamic three-dimensional virtual objects
JP4237270B2 (ja) 音声画像データの復号方法
JP4555722B2 (ja) 立体映像生成装置
Kim et al. A haptic-rendering technique based on hybrid surface representation
US7068269B2 (en) System and method for presenting three-dimensional data
CN107122099A (zh) 关联用户界面的方法、装置、存储介质、处理器和终端
KR102499904B1 (ko) 가상 현실 미디어 콘텐트 내에 포함시키기 위해 실세계 장면의 맞춤화된 뷰의 가상화된 투영을 생성하기 위한 방법들 및 시스템들
KR20140145217A (ko) 공간정보를 이용한 3차원 가상 모델링 시스템 및 그 방법
US10115227B2 (en) Digital video rendering
US20160239095A1 (en) Dynamic 2D and 3D gestural interfaces for audio video players capable of uninterrupted continuity of fruition of audio video feeds
Piumsomboon et al. Physically-based interaction for tabletop augmented reality using a depth-sensing camera for environment mapping
JPH09319896A (ja) 3次元画像作成装置
Zachmann VR-techniques for industrial applications
CN116243831A (zh) 一种虚拟云展厅交互方法及系统
Cha et al. Haptic interaction with depth video media
Kessler Virtual environment models
Kim et al. Haptic annotation for an interactive image
Mazalek et al. Tangible viewpoints: a physical interface for exploring character-driven narratives
Reiling Toward General Purpose 3D User Interfaces: Extending Windowing Systems to Three Dimensions
Xu et al. Research on the Digital Promotion and Development of the Achang Forging Skills in Yunnan

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B601 Maintenance of original decision after re-examination before a trial
E801 Decision on dismissal of amendment
N231 Notification of change of applicant
S901 Examination by remand of revocation
E902 Notification of reason for refusal
S601 Decision to reject again after remand of revocation
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20110112

Effective date: 20111223

Free format text: TRIAL NUMBER: 2011101000227; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20110112

Effective date: 20111223

GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180329

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee