KR20070030849A - 3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및방법 - Google Patents

3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및방법 Download PDF

Info

Publication number
KR20070030849A
KR20070030849A KR1020067027092A KR20067027092A KR20070030849A KR 20070030849 A KR20070030849 A KR 20070030849A KR 1020067027092 A KR1020067027092 A KR 1020067027092A KR 20067027092 A KR20067027092 A KR 20067027092A KR 20070030849 A KR20070030849 A KR 20070030849A
Authority
KR
South Korea
Prior art keywords
dimensional image
distance
user
rendered
image
Prior art date
Application number
KR1020067027092A
Other languages
English (en)
Inventor
헨릭 선드스트룀
요한 굴릭손
Original Assignee
소니 에릭슨 모빌 커뮤니케이션즈 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 에릭슨 모빌 커뮤니케이션즈 에이비 filed Critical 소니 에릭슨 모빌 커뮤니케이션즈 에이비
Priority to KR1020067027092A priority Critical patent/KR20070030849A/ko
Publication of KR20070030849A publication Critical patent/KR20070030849A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3차원 이미지를 렌더링하거나 변형하는 모바일 장치가 개시된다. 이 모바일 장치는 장치에 관련된 사용자의 거리 및/또는 위치를 결정하고 이 감지된 거리 및/또는 위치에서 3차원 이미지의 향상된 보기를 제공하도록 3-차원 이미지를 조정한다.
3차원 이미지, 렌더링, 모바일 전화, 카메라

Description

3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및 방법{PROXIMITY ASSISTED 3D RENDERING}
본 발명은 3-차원 이미징을 할 수 있는 표시 화면에 관한 것으로, 보다 상세히는 모바일 전화 및 컴퓨터 표시 화면과 같은 특수 응용물에 대한 3-차원 이미징에 관한 것이지만 이에 한정되는 것은 아니다.
컴퓨터 및 핸드-헬드 모바일 전화의 인기와 전 세계적인 보급은 잘 알려져 있다. 이러한 광 범위한 이용은 컴퓨터와 모바일 전화가 현대 사회 및 동시대의 업무 모두의 일반적인 일부가 되게 하였다. 이들 기술의 성공에는 많은 이유가 있는데, 그 이유는 사용자가 정보를 액세스하고/거나 통신할 수 있게 하는 본질적인 용이성 및 이와 관련된 대중적인 오락성을 포함한다. 모바일 전화와 컴퓨터용 표시 화면은 전화 통신과 정보의 액세스 모두에 있어서 본질적인 것이다.
최근 몇년간, 컴퓨터 화면과 모바일 전화의 핸드 셋 표시 화면은 기술 혁신과 그 관련된 오락성을 표명하였다. 오늘날, 최 고급 액정 표시 장치(LCD) 기술을 이용하여 향상된 품질의 색과 전력 소모가 적은 보기(viewing)를 제공하는, 다양한 크기와 형태로 된 컴퓨터와 모바일 전화 표시 화면이 제조되고 판매되고 있다. 특히 모바일 전화 분야에서는 표시 화면의 "저전력" 양상이 중요하다. 현대 모바일 전화의 기능에 대한 수요는 전력 소비 및 배터리 수명의 효율이 개선되기를 요구해왔다. 마찬가지로, 특정 표시 기술에 의해 향상된 보기는 컴퓨터와 모바일 전화 모두의 사용자에게 명확성과 효율성을 더 제공하여, 3-차원 표시 이미징과 같은 양상들을 향상시키게 한다.
입체경, 또는 3-차원 이미징은 2-차원 이미지에서의 깊이의 환영을 생성하기 위한 기법이다. 3-차원 이미징은 사진, 비디오, 게이밍, 모바일 전화, 및 에니메이션 등의 다양한 응용물에서의 수용과 인기를 얻고 있다.
3-차원 이미징은 현재 한쌍의 2-차원 이미지에 의해 렌더링된다. 깊이, 또는 3-차원 이미지의 인지를 생성하기 위해, 관찰자의 왼쪽 눈에는, 오른쪽 눈에 제공되는 이미지와는 다른 이미지를 제공한다. 서로 다른 이미지들은, 양쪽 눈이 양쪽 눈의 시야에 자연스럽게 받아들이는 원근감과 유사한 아주 작은 편차로 인하여, 동일한 이미지의 2개의 원근감이 된다. 19세기 중반에, 찰스 휘트스톤은 2개의 약간 다른 이미지를 나란히 인쇄함으로써 최초 버전의 입체경을 만들어냈다. 관찰자는 2개의 이미지가 3개로 보이도록 자신의 양쪽 눈을 교차시키거나 엇갈리게 해야만 했었다. 그러면 각 눈이 서로 다른 이미지를 보기 때문에, 이 3개의 이미지 중간에서 깊이 효과가 이루어졌다. 그 후 이러한 기법은 동시에 약간 다른 사진을 찍기 위한 특수 카메라와 이 특수한 사진을 보기 위한 렌즈가 2개인 입체경을 포함하도록 정련되었다.
입체 영화를 만들기 위하여, 직교하는 편광 필터를 통해 동일한 화면에 2개의 이미지가 투영되어 겹쳐진다. 관찰자는 한 쌍의 직교하는 편광 필터를 구비한 안경을 착용한다. 각 필터가 유사하게 편광된 광을 보내고 이 직교하는 편광된 광을 블록킹할 때, 각각의 눈은 이미지들 중 하나만을 보게되며, 3-차원 이미징 효과가 생성된다. 마찬가지의 시도로, 편광 필터 대신에 컬러 필터를 이용하여 3-차원 이미지가 생성될 수 있다. 관찰자의 한쪽 눈이 보는 이미지는 적색 등의 제1 색으로 생성되고, 다른 쪽 눈이 보는 이미지는 청색 또는 녹색 등의 보색으로 생성된다. 그 다음 관찰자는 각 눈의 색 필터를 가지는 한 쌍의 안경을 통해 이미지를 본다. 색 필터 시스템은 흑백 이미지에서 잘 동작하지만, 이 색 필터는 컬러 이미지의 색들의 외관에 영향을 미칠 수 있다.
모바일 전화 또는 컴퓨터 랩탑 등의, 화면 상의 적용을 위한 현재의 3-차원 그래픽은 관찰자의 왼쪽 눈에 특정 이미지 세트를 보내고, 이 관찰자의 오른쪽 눈에는 다른 이미지 세트를 보내어, 깊이 효과를 생성함으로써 렌더링될 수 있다. 화면과 눈의 상대적인 위치는 눈이 화면으로부터의 소정이 범위(예를 들면, 30-50cm)에 있고, 이 눈이 화면이 중앙으로부터 직각 레벨에 있도록 고정된다. 이미지 세트는 화면 상에 겹쳐지지만, 이 이미지 세트는 3-차원 이미지의 약간 다른 원근감을 보여준다. 한쪽 눈이 보는 이미지는 다른 쪽 눈이 보는 이미지에서 가로방향으로 약간 시프팅된다. 관찰자가 화면으로부터의 소정의 범위 내에 있지 않는다면, 3-차원 이미지는 적절하게 보이지 않는다. 예를 들면, 3-차원 이미지는 오른쪽 눈과 왼쪽 눈에 대하여 분리되는 이미지 세트로 깨지게 되어 흐려질 수 있다. 또한, 모바일 전화, 랩탑, 등을 위한 3-차원 이미지는 현재 전면각으로부터만 볼 수 있다.
본 발명은 표시 화면에 관한 것으로 보다 상세히는, 3-차원 이미징을 이용하여 보기 향상을 용이하게 하는 모바일 전화 핸드셋, 및 컴퓨터 표시 화면과 그 관련 통신 장치에 관한 것이다. 일 실시예에서, 본 발명은 3-차원 이미지를 표시하도록 구성되는 장치를 포함한다. 장치는 3차원 이미지를 표시하기 위한 표시면, 장치와 장치의 사용자 간의 거리 및 위치 중 적어도 하나에 관련된 거리 데이터를 수집하기 위한 센서, 이 거리 데이터에 기초하여 3차원 이미지를 생성하기 위한 이미지 생성기를 포함한다. 센서는 근접 센서, 사용자의 특징의 크기에 기초하여 거리 데이터를 생성하는 카메라, 또는 다른 거리 측정 기술을 이용하는 시스템일 수 있다.
다른 실시예에서, 상술한 위치 또는 거리 데이터는 감지된 사용자와 장치 간의 거리, 또는 이전 거리 데이터 세트와 현재 감지된 거리 데이터 세트 간의 차이를 포함한다. 특정 실시예에서, 본 발명은 모바일 전화, 개인 휴대 단말기(PDA), 및 랩탑 컴퓨터 중 적더오 하나에 포함된다.
또 다른 양태에서, 본 발명의 일 실시예는 3차원 이미지를 렌더링하는 방법을 포함한다. 이 방법은 사용자의 거리 및 위치 중 적어도 하나를 감지하는 단계, 사용자의 거리 및/또는 위치에 기초하여 거리 데이터를 생성하는 단계, 및 거리 데이터에 기초하여 3차원 이미지를 렌더링하는 단계를 포함한다. 이 방법은 사용자의 거리 및/또는 위치를 재감지하는 단계, 렌더링된 3차원 이미지가 조정을 요하는지를 판정하는 단계, 렌더링된 3차원 이미지가 조정으로 요한다고 판정된 경우 렌더링된 3차원 이미지를 조정하는 단계, 및 3차원 이미지의 렌더링을 요하는 이미징 적용이 종료되어야 하는지를 판정하는 단계를 더 포함할 수 있다. 이미징 적용이 종료되지 않아야 한다고 판정된 경우, 본 발명의 일 실시예는 재감지 단계, 렌더링된 3차원 이미지가 조정을 요하는 지를 판정하는 단계, 조정 단계, 및 3차원 이미지의 렌더링을 요하는 이미징 적용이 종료되어야 하는지를 판정하는 단계를 반복하는 단계를 포함한다.
다른 양태에서, 본 발명의 일 실시예는 미리-렌더링된 3차원 이미지를 변형하는 방법을 포함한다. 이 방법은 미리-렌더링된 3차원 이미지를 수신하는 단계, 사용자의 거리 및 위치 중 적어도 하나를 감지하는 단계, 사용자의 감지된 거리 또는 감지된 위치에 기초하여 거리 데이터를 생성하는 단계, 및 이 거리 데이터에 기초하여 미리-렌더링된 3차원 이미지를 변형하는 단계를 포함한다. 상술한 방법은 또한 사용자의 거리 또는 위치를 재감지하는 단계, 변형된 미리-렌더링된 3차원 이미지가 조정을 요하는지를 판정하는 단계, 미리-렌더링된 3차원 이미지가 조정을 요한다고 판정되면 변형된 미리-렌더링된 3차원 이미지를 조정하는 단계, 및 3차원 이미지의 변형을 요하는 이미징 적용이 종료되어야 하는지를 판정하는 단계를 더 포함할 수 있다. 이미징 적용이 종료되지 않아야한다고 판정되면, 본 발명의 일 실시예는, 재감지 단계, 미리-렌더링된 3차원 이미지가 조정을 요하는지를 판정하는 단계, 조정 단계, 3차원 이미지의 변형을 요하는 이미징 적용이 종료되어야 한다고 판정하는 단계를 포함한다.
도 1a 내지 1d는 2차원 매체에 도시된 3차원 이미징을 도시하는 도면.
도 2는 본 발명의 실시예에 따른 모바일 전화를 도시하는 도면.
도 3은 본 발명의 실시예를 포함하는 모바일 전화의 블록도.
도 4는 본 발명의 대안적인 실시예를 포함하는 모바일 전화의 블록도.
도 5는 본 발명의 실시예에 따른 3-차원 이미지를 렌더링하는 방법을 도시하는 흐름도.
도 6은 본 발명의 대안적인 실시예에 따른 3-차원 이미지를 렌더링하는 방법을 도시하는 흐름도.
본 발명의 방법 및 장치의 보다 완전한 이해는 첨부된 도면에 관련하여 이루어진 이하 상세한 설명을 참조하여 얻어질 수 있다.
본 발명의 실시예에 따르면, 표시 화면에 대한 모바일 전화의 관찰자의 거리를 구축하는 데에 근접 센서가 이용될 수 있다. 둘 다 본원에 그 전체가 참조로서 포함되는, 미국 특허 제6,532,447호 및 미국 특허 출원 제10/818,006호에 기술된 것들과 같은 다양한 근접 센서가 거리 데이터를 결정하는 데 이용될 수 있다. 본 발명의 실시예는 3차원 이미지의 "왼쪽" 및 "오른쪽" 이미지의 원근감과 시프팅을 채택하는 데에 이용될 수 있는 근접 센서를 제공한다. 근접 센서로부터의 거리 데이터에 기초하는 시프팅 및/또는 렌더링은 사용자가 임의의 거리에서 이상적인 보기를 체험할 수 있게 한다. 이는 실시간 렌더링되는 3-차원 이미지 및 미리-렌더링된 이미지에 모두 적용된다. 전자는 거리 데이터에 기초하여 렌더링되고 후자는 원근적으로 변형되고 시프팅된다. 입체 이미지는 거리 데이터에 기초하여 활동중에(on-the-fly) 변형될 수도 있다. 거리 데이터는 카메라가 관찰자를 향해 있을 경우(예를 들면, 비디오폰 사용가능 모바일폰), 장치의 카메라로부터 계산될 수도 있다. 이하 보다 상세히 정의될 바와 같이, 본 발명은 이미지 분석을 이용하는 것을 고려할 수 있는데 여기서는 카메라가 직접 관찰자의 특징을 찾아내고 그 특징의 공간 및/또는 크기를 이용하여 거리를 계산함으로써 근접 센서로서 이용된다.
이제 도 1a 내지 1c를 참조해 보면, 2-차원 매체 상의 3-차원 이미징이 도시된다. 사용자는 소정의 거리에서 2-차원 화면(100) 상에 3차원 이미지의 정면을 볼 수 있다. 최적의 보기를 위하여, 사용자의 눈(102)은 화면(100)으로부터 소정의 거리만큼 충분히 떨어져 있어야 한다. 통상적으로, 3-차원 이미지는 오른쪽 눈(102)에 제공되는 이미지와는 원근감이 약간 다른 이미지를 왼쪽 눈(102)에 제공함으로써 생성될 수 있다. 사용자가 화면(100)으로부터 소정의 거리만큼 충분히 떨어져 있지 않는다면, 이미지는 흐려지거나, 각 눈(102)이 보는 2개의 분리된 이미지로 깨질 수 있다.
3-차원 이미지가 표시 장치(100)에 (예를 들면, 직각에서 보이는) 정면으로 표시된다. 사용자가 x-방향으로 이동한다면, 도 1c에 따라, 이미지는 새로운 사용자 위치에서 정면으로 재-렌더링된다. 본 발명의 몇몇의 실시예에 따르면, 3-차원 이미지는 사용자에게 3-차원 이미지의 측면을 제공하도록 렌더링될 수 있다.
이제 도 1d를 참조해 보면, 3-차원 이미지의 측면 보기가 도시된다. 3-차원 객체의 서로 다른 보기들을 렌더링함으로써, 사용자는 이 3-차원 객체의 주변, 위, 아래 등에서 볼 수 있다. 사용자는 x-방향으로 이동하여 3-차원 이미지의 측면을 보게될 수 있거나 z-방향으로 이동하여 3-차원 이미지의 상부 또는 하부를 보게될 수 있다.
이제 도 2를 참조해 보면, 본 발명의 일 실시예를 포함하는 모바일 전화가 도시된다. 모바일 전화(200)는 이미지를 보여주기 위한 표시 장치(202) 및 사용자의 위치 또는 모바일 전화(200)와 사용자 간의 거리를 결정하기 위한 센서(204)를 포함한다. 상술한 바와 같이, 공동으로-허여된 미국 특허 출원 제10/818,006호에서 기술된 바와 같이 객체의 위치 또는 거리를 결정하는 데에 다양한 센서가 채용될 수 있다. 예를 들면, 센서(202)로부터 사용자로의 거리를 결정하는 데에 근접 센서(예를 들면, 용량 센서, 감응 센서, 온도 센서, IR 센서, 등)가 이용될 수 있다. 센서(204)로부터 수신된 데이터에 기초하여, 표시 장치(202)는 센서(204)에 의해 감지된 거리에 특정하게 렌더링된 3-차원 이미지를 보여줄 수 있다. 또한, 표시 장치는 센서(204)로부터 수신된 데이터에 기초하여 정면, 측면, 등으로 렌더링된 3-차원 이미지를 보여줄 수 있다.
이제 도 3을 참조해 보면, 본 발명의 실시예에 따른, 모바일 전화, PDA, 랩탑 등과 같은 모바일 장치(300)가 도시된다. 장치(300)는 사용자의 거리 또는 위치를 감지하기 위한 센서(204) 및 이미지를 표시하기 위한 표시 장치(202)를 포함한다. 장치는 또한 장치(300)를 제어하기 위한 프로세서(302) 및 3-차원 이미지를 생성하기 위한 이미지 생성기(306)를 포함한다. 이미지 생성기(306)는 여러가지 실시예에서 프로세서(302) 내에 공존하거나 프로세서(302)로부터 분리될 수 있다. 장치는 선택적으로 장치(300)에 전력을 제공하기 위한 배터리(304)를 포함할 수 있다.
프로세서(302) 또는 이미지 생성기(306)는 센서(204)로부터 위치 또는 거리 데이터를 수신하고 장치(300)와 사용자 간의 거리 또는 위치를 결정한다. 본원에 정의된 위치 데이터는 2 또는 3-차원으로 사용자의 위치를 결정하는 데에 이용되는 임의의 유형의 데이터에 관련된다. 본원에 정의된 거리 데이터는 장치(200)와 사용자 간의 거리를 결정하는 데에 이용되는 임의의 유형의 데이터에 관련된다. 예를 들면, 거리 데이터는 장치(200)로부터 사용자로의 실질적인 거리(예를 들면, 센티미터, 인치 등)일 수 있다. 대안으로, 도 4를 참조하여 이하 설명할 바와 같이, 거리 데이터는 프로세서(302) 또는 이미지 생성기(3060)에 의해 액세스되는 데이터 테이블에서 추후에 탐색되는 특정 파라미터에 관련될 수 있다. 예를 들면, 거리 데이터는 사용자의 얼굴의 다양한 특징들 간의 거리(예를 들면, 사용자의 양쪽 눈의 동공들 간의 거리) 또는 사용자의 얼굴의 특징의 크기에 관련될 수 있다. 사용자의 특징에 관련된 위치 또는 거리 데이터는 이하 기술될 바와 같이 카메라를 이용함으로써 계산될 수 있다. 거리 및 특징의 관련 크기는 프로세서(302)가 특징 크기를 수신할 때, 특징 크기에 관련된 거리를 데이터 테이블에서 검색함으로써 거리를 결정할 수 있도록 데이터 테이블에서 상호-참조될 수 있다.
3-차원 이미지를 실시간으로 렌더링할 때, 표시 장치(202) 상의 3-차원 이미지를 렌더링하는 데에 이 위치 또는 거리 데이터가 이용된다. 3-차원 이미지는 센서(204)에 의해 감지된 특정 위치 또는 거리에 대하여 렌더링된다. 장치(300)가 미리-렌더링된 3-차원 이미지를 제시하는 데에 이용될 때, 원근적인 이미지가 변형되고 시프팅되어 감지된 거리에서의 이미지 품질을 향상시킨다. 입체 이미지는 또한 센서(204)로부터 전송된 거리 데이터에 기초하여 활동중에 렌더링될 수 있다.
보다 상세히는, 표시 장치(202)에 나타나는 3-차원 이미지는 2개의 성분부, 즉, 오른쪽 이미지 및 왼쪽 이미지로 이루어진다. 오른쪽 이미지를 오른쪽 눈이 보게 되며 왼쪽 이미지를 왼쪽 눈이 보게 된다. 본 발명에 따른 3-차원 이미징 중에 이미지를 렌더링할 때, 왼쪽 및 오른쪽 이미지는 왼쪽 및 오른쪽 이미지를 시프팅함으로써 위치 또는 감지된 거리에 적응되어 감지된 거리에서 향상된 사용자 경험을 성취한다. 예를 들면, 센서(204)는 사용자와 장치(300) 간의 거리 d를 감지할 수 있다. 그 다음 오른쪽 및 왼쪽 이미지가 렌더링되거나 변형되고 시프팅되어 거리 d에서 보여질 3-차원 이미지를 제공한다. 그 다음 사용자는 센서(204)가 장치(300)와 사용자 간의 거리가 d-4cm임을 판정하는 동안 장치(300)를 사용자의 얼굴에 더 가까이 이동시킬 수 있다. 그 다음 오른쪽 및 왼쪽 이미지는 재-렌더링되거나 재-변형되고 시프팅되어 거리 d-4 cm에서 보여질 3-차원 이미지를 제공할 수 있다. 각 사용자가 자신으로부터 장치(300)를 얼마나 먼 거리에 두고 있는지에 상관 없이, 3-차원 이미지는 최적의 보기 체험을 제공하도록 조정될 수 있다.
이제 도 4를 참조해 보면, 본 발명의 대안적인 실시예에 따른 모바일 장치(400)가 도시된다. 모바일 장치(400)는 도 3에 도시된 바와 유사하게 프로세서(402), 이미지 생성기(406), 표시 장치(202), 및 선택적인 배터리(304)를 포함한다. 그러나, 카메라(404)가 사용자와 장치(400) 간의 거리를 결정하기 위한 선택 적인 센서(204) 대신에, 또는 이 센서와 함께 이용될 수 있다. 일 실시예에서, 위치 또는 정확한 거리 d를 결정하는 데에 센서(204)와 카메라(404)가 함께 이용될 수 있다. 대안적인 실시예에서, 카메라(404)가 센서(204)를 대신하여 위치 또는 거리 d를 결정할 수 있다. 대안적인 실시예에서, 카메라(404)가 단독으로 프로세서(402)에 위치 또는 거리 데이터를 제공하는 역할을 할 수 있고 센서(204)는 장치(400)에 존재하지 않을 수 있다.
센서(204)가 장치(400)로부터 사용자의 특정 특징(예를 들면, 코, 눈, 얼굴, 귀, 등)으로의 거리 또는 위치를 감지하는 것과 같이, 카메라(404)가 복수의 기법에 기초하여 장치(400)로부터 사용자로의 거리 또는 위치를 결정할 수 있다. 예를 들면, 카메라(404)는 사용자의 이미지를 캡처하고 특정 특징(예를 들면, 눈, 코, 얼굴, 입, 등)의 크기에 기초하여 위치 또는 거리를 결정할 수 있다. 사용자가 장치(400)의 측면으로 이동하거나 장치(400)로부터 멀리 또는 가까이 이동한다면, 카메라(404)에 의해 캡처된 이미지는 특정 특징의 위치 또는 사이트를 결정하도록 분석될 수 있다. 사용자가 이동할 때, 프로세서(402)는 카메라(404)로부터 하나 이상의 이미지를 수신하고 2개 이상의 이미지로부터의 특정 특징의 관련된 크기를 비교하여 위치 또는 거리상의 변화를 결정할 수 있다. 대안으로, 프로세서(402)는 하나 이상의 이미지를 수신하고 카메라(404)로부터 임의의 다른 수신된 이미지에 독립적인 거리 또는 위치를 계산할 수 있다.
예를 들면, 카메라(404)는 이미지를 캡처할 수 있고 그 다음 프로세서(402)가 그 이미지에 기초하여 위치 또는 거리 d를 결정한다. 그 다음 카메라(404)는 시간상으로 더 이후의 시점에서 추가적인 이미지를 캡처할 수 있고 프로세서는 이전 이미지와 다음 이미지를 비교하여 캡처된 이미지들 간의, +2 cm등의, 거리 또는 위치의 차이를 결정한다. 그 다음 표시 장치(202) 상에 나타나는 오른쪽 및 왼쪽 이미지는 d+2 cm인 보여지는 거리에 대하여 조정될 수 있다. 대안으로, 이미지는 이미지의 측면, 상면, 하면 등이 보이도록 조정될 수 있다. 상술한 바와 같이, 카메라(404)는 이미지를 캡처할 수 있고 프로세서(402)는 임의의 다른 이전 또는 이후의 캡처된 이미지와의 비교 없이 캡처된 이미지에 기초하여 사용자와 장치(400) 간의 거리를 계산한다. 또한, 사용자와 장치(400) 간의 위치 또는 거리를 감지하는 데에 카메라(404)가 센서(204)를 대신하거나 이 센서(402)와 함께 이용될 수 있다. 카메라(404)가 초기 위치 또는 거리를 결정하는 데 이용될 수 있고 센서(204)는 소정의 간격으로 위치 또는 거리를 감지할 수 있다. 대안으로, 센서(204)가 초기 위치 또는 거리를 감지할 수 있고 카메라(404)가 소정의 간격으로 이 감지된 위치 또는 거리를 업데이트하는 데에 이용될 수 있다. 본 기술 분야의 당업자들은 카메라(404)와 센서(204) 간의 다양한 다른 조합이 장치(400)와 사용자 간의 위치 또는 거리를 결정하는 데에 이용될 수 있다고 이해할 것이다.
또한, 이미지가 감지된 위치 또는 거리에 대한 아주 작은 변경에 기초하여 조정되는 것을 방지하도록 감지되는 위치 또는 거리 주변의 범위가 생성될 수 있다. 예를 들면, 사용자가 현재 거리 d에서 3-차원 이미지를 보고 있을 경우, 이미지는 사용자가, 예를 들면, d±5cm인 수용가능 범위 내에 남아 있다면 조정되지 않을 수 있다. 센서(204) 또는 카메라(404)가 사용자는 수용가능 범위 외부로 이동 했다고 판정한다면, 이미지는 사용자의 새로운 보기 거리에 대해 조정된다. 본 기술 분야의 당업자들은 범위 d±5cm은 본래 예시적일 뿐이며 본 발명의 양태들을 벗어나지 않는 다른 범위가 이용될 수 있다고 이해할 것이다.
이제 도 5를 참조해 보면, 3-차원 이미지를 렌더링하기 위한 방법(500)을 예시하는 흐름도가 도시된다. 단계(502)에서, 센서(204), 카메라(404), 또는 둘 다를 통해 장치와 사용자 간의 위치 또는 거리가 감지된다. 단계(504)에서 이미지는 감지된 위치 또는 거리에서 보여지도록 렌더링된다. 단계(506)에서, 사용자의 위치 또는 거리가 단계(502)의 감지로부터 소정의 시간 간격으로 감지된다. 대안으로, 단계(506)는 사용자 또는 장치(400)의 감지된 움직임 등의 액션에 응답하여 개시될 수 있다. 단계(508)에서, 이미지 생성기(306, 406)는 이미지가 조정되어야 하는지 판정한다. 전술한 바와 같이, 이미지는 감지된 위치/거리가 변경될 때마다 또는 감지된 위치/거리가 수용가능한 이미지의 외부에 놓여질 때 조정될 수 있다.
단계(508)에서 이미지가 조정되어야 한다고 판정되면, 방법은 다시 단계(504)로 루핑한다. 이미지가 조정되지 않아야 한다고 판정되면, 단계(510)에서, 이미징이 종료되어야 하는지를 판정한다. 이미징이 종료되어야 한다면, 단계(512)에서, 이 이미징 적용을 종료한다. 단계(510)에서 이미징이 종료되지 않아야 한다고 판정되면, 방법은 다시 단계(506)로 루핑한다. 단계(510)는 소정 간격으로 또는 사용자가 시작한 액션(버튼 또는 키의 활성화), 감지된 사용자의 움직임, 감지된 장치(400)의 움직임 등의 액션에 응답하여 다시 단계(506)로 루핑할 수 있다.
이제 도 6을 참조해 보면, 미리-렌더링된 3-차원 이미지를 조정하기 위한 방 법(600)을 예시하는 흐름도가 도시된다. 단계(602)에서, 장치(300, 400)에서 미리-렌더링된 이미지가 수신되거나 개시된다. 단계(604)에서, 센서(204), 카메라(404), 또는 둘 다를 통해 장치(300, 400)와 사용자 간의 거리 또는 위치가 감지된다. 단계(606)에서 이미지는 감지된 위치 또는 거리에서 보여지도록 조정된다. 단계(608)에서, 사용자와 장치(300, 400) 간의 거리 또는 위치가 감지된다. 단계(608)는 소정의 시간 간격으로 또는 감지된 사용자 또는 장치(300, 400)의 움직임 등의 액션에 응답하여 개시될 수 있다. 단계(610)에서, 이미지 생성기(306, 406)는 위치 또는 거리 데이터에 기초하여 이미지가 조정되어야 하는지를 판정한다. 전술한 바와 같이, 이미지는 감지된 위치/거리가 변경될 때마다 또는 감지된 위치/거리가 수용가능한 범위의 외부에 놓여질 때 조정될 수 있다.
단계(610)에서 이미지가 조정되어야 한다고 판정되면, 방법은 다시 단계(606)로 루핑한다. 이미지가 조정되지 않아야 한다고 판정되면, 단계(612)에서, 이미징이 종료되어야 하는지를 판정한다. 이미징이 종료되어야 한다면, 단계(614)에서, 이 이미징 적용을 종료한다. 단계(612)에서 이미징이 종료되지 않아야 한다고 판정되면, 방법은 다시 단계(608)로 루핑한다. 단계(612)는 상술한 바와 같이 소정 간격으로 또는 사용자가 시작한 액션, 감지된 사용자의 움직임, 감지된 장치(300, 400)의 움직임 등의 액션에 응답하여 다시 단계(608)로 루핑할 수 있다.
따라서 본 발명의 다양한 실시예의 동작 및 구조가 전술한 상세한 설명으로부터 명백해질 것이라고 여겨진다. 다양한 장치가 기술되었지만, 이하의 특허 청구 범위에 정의된 본 발명의 사상 및 범위로부터 벗어나지 않는 다양한 변경 및 수 정이 이루어질 수 있음이 본 기술 분야의 당업자에게 명백할 것이다. 그러므로, 첨부된 특허 청구 범위의 사상 및 범위는 본원에 포함된 실시예의 설명에 제한되지 않아야 한다.

Claims (20)

  1. 3차원 이미지를 표시하도록 구성된 장치로서,
    상기 장치는
    상기 3차원 이미지를 표시하기 위한 표시면,
    상기 장치와 상기 장치의 사용자 간의 거리 및 위치 중 적어도 하나에 관련된 거리 데이터를 수집하기 위한 센서, 및
    상기 거리 데이터에 기초하여 상기 3차원 이미지를 생성하기 위한 이미지 생성기를 포함하는 장치.
  2. 제1항에 있어서,
    상기 센서는 근접 센서인 장치.
  3. 제1항에 있어서,
    상기 센서는 카메라인 장치.
  4. 제3항에 있어서,
    상기 카메라는 상기 사용자의 특징의 크기에 기초하여 거리 데이터를 생성하는 장치.
  5. 제4항에 있어서,
    상기 특징은 상기 사용자의 눈, 코, 얼굴, 및 입 중 적어도 하나인 장치.
  6. 제3항에 있어서,
    상기 카메라는 상기 사용자의 2개의 특징들 간의 거리에 기초하여 거리 데이터를 생성하는 장치.
  7. 제6항에 있어서,
    상기 2개의 특징은 왼쪽 눈과 오른쪽 눈인 장치.
  8. 제6항에 있어서,
    상기 2개의 특징은 눈과 코인 장치.
  9. 제1항에 있어서,
    상기 거리 데이터는 상기 사용자와 상기 장치 간의 실시간 감지되는 거리 및 실시간 감지되는 위치 중 적어도 하나를 포함하는 장치.
  10. 제1항에 있어서,
    상기 거리 데이터는 이전의 위치 데이터 또는 거리 데이터 세트와 현재 감지된 위치 데이터 또는 거리 데이터 세트 간의 차이를 포함하는 장치.
  11. 제1항에 있어서,
    재충전가능한 배터리를 더 포함하는 장치.
  12. 제1항에 있어서,
    상기 장치는 모바일 전화, 개인 휴대 단말기(PDA), 및 랩탑 컴퓨터 중 적어도 하나인 장치.
  13. 3차원 이미지를 렌더링하는 방법으로서,
    상기 방법은
    사용자의 거리 및 위치 중 적어도 하나를 감지하는 단계,
    상기 사용자의 거리 또는 위치 중 적어도 하나에 기초하여 거리 데이터를 생성하는 단계, 및
    상기 거리 데이터에 기초하여 상기 3차원 이미지를 렌더링하는 단계를 포함하는 방법.
  14. 제13항에 있어서,
    상기 사용자의 거리 및 위치 중 적어도 하나를 재감지하는 단계,
    상기 렌더링된 3차원 이미지가 조정을 요하는지를 판정하는 단계,
    상기 렌더링된 3차원 이미지가 조정을 요한다고 판정되는 경우 상기 렌더링 된 3차원 이미지를 조정하는 단계, 및
    상기 3차원 이미지의 렌더링을 요하는 이미징 적용이 종료되어야 하는지를 판정하는 단계
    를 포함하는 방법.
  15. 제14항에 있어서,
    상기 이미징 적용이 종료되지 않아야 한다고 판정되는 경우,
    재감지 단계, 상기 렌더링된 3차원 이미지가 조정을 요하는지 판정하는 단계, 조정 단계, 및 상기 3차원 이미지의 렌더링을 요하는 이미징 적용이 종료되어야 하는지 판정하는 단계를 반복하는 단계를 더 포함하는 방법.
  16. 제14항에 있어서,
    이미징 적용이 종료되어야 하는지를 판정하는 단계는 상기 사용자로부터 상기 이미징 적용을 종료하라는 입력을 수신하는 단계를 포함하는 방법.
  17. 미리-렌더링된 3차원 이미지를 변형하는 방법으로서,
    상기 방법은
    상기 미리-렌더링된 3차원 이미지를 수신하는 단계,
    상기 사용자의 거리 및 위치 중 적어도 하나를 감지하는 단계,
    상기 사용자의 상기 감지된 위치 및 상기 감지된 거리 중 적어도 하나에 기 초하여 거리 데이터를 생성하는 단계, 및
    상기 거리 데이터에 기초하여 상기 미리-렌더링된 3차원 이미지를 변형하는 단계를 포함하는 방법.
  18. 제17항에 있어서,
    상기 사용자의 거리 및 위치 중 적어도 하나를 재감지하는 단계,
    상기 변형된 미리-렌더링된 3차원 이미지가 조정을 요하는지를 판정하는 단계,
    상기 변형된 미리-렌더링된 3차원 이미지가 조정을 요한다고 판정되는 경우 상기 변형된 미리-렌더링된 3차원 이미지를 조정하는 단계, 및
    상기 3차원 이미지의 변형을 요하는 이미징 적용이 종료되어야 하는지를 판정하는 단계
    를 포함하는 방법.
  19. 제18항에 있어서,
    상기 이미징 적용이 종료되지 않아야 한다고 판정되는 경우,
    재감지 단계, 상기 변형된 미리-렌더링된 3차원 이미지가 조정을 요하는지 판정하는 단계, 조정 단계, 및 상기 3차원 이미지의 변형을 요하는 이미징 적용이 종료되어야 하는지 판정하는 단계를 반복하는 단계를 더 포함하는 방법.
  20. 제18항에 있어서,
    이미징 적용이 종료되어야 하는지를 판정하는 단계는 상기 사용자로부터 상기 이미징 적용을 종료하라는 입력을 수신하는 단계를 포함하는 방법.
KR1020067027092A 2004-06-24 2005-06-20 3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및방법 KR20070030849A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020067027092A KR20070030849A (ko) 2004-06-24 2005-06-20 3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/875,347 2004-06-24
KR1020067027092A KR20070030849A (ko) 2004-06-24 2005-06-20 3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및방법

Publications (1)

Publication Number Publication Date
KR20070030849A true KR20070030849A (ko) 2007-03-16

Family

ID=43655357

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067027092A KR20070030849A (ko) 2004-06-24 2005-06-20 3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및방법

Country Status (1)

Country Link
KR (1) KR20070030849A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8810564B2 (en) 2010-05-03 2014-08-19 Samsung Electronics Co., Ltd. Apparatus and method for reducing three-dimensional visual fatigue
WO2019066191A1 (ko) * 2017-09-28 2019-04-04 엘지전자 주식회사 스티칭 및 리프로젝션 관련 메타데이터를 이용한 6dof 비디오를 송수신하는 방법 및 그 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8810564B2 (en) 2010-05-03 2014-08-19 Samsung Electronics Co., Ltd. Apparatus and method for reducing three-dimensional visual fatigue
WO2019066191A1 (ko) * 2017-09-28 2019-04-04 엘지전자 주식회사 스티칭 및 리프로젝션 관련 메타데이터를 이용한 6dof 비디오를 송수신하는 방법 및 그 장치
US11856181B2 (en) 2017-09-28 2023-12-26 Lg Electronics Inc. Method and device for transmitting or receiving 6DoF video using stitching and re-projection related metadata

Similar Documents

Publication Publication Date Title
US8300043B2 (en) Proximity assisted 3D rendering
CN101499253B (zh) 输出画面的调整方法与装置
JP6158223B2 (ja) モバイル表示装置
US20120154390A1 (en) Information processing apparatus, information processing method, and program
TW200928860A (en) Method and device for adjusting output frame
KR101728845B1 (ko) 표시 장치, 포장 박스 및 포장 장치
CN102984452B (zh) 照相终端的自拍方法及照相终端
KR20120048397A (ko) 휴대 단말기 및 그 동작 제어방법
CN104603717A (zh) 显示装置、显示方法以及程序
KR20130030406A (ko) 이동 단말기
JP2002281526A (ja) 画像生成装置、プログラム及び情報記憶媒体
WO2016107063A1 (zh) 一种多摄像头终端的3d文件制作、播放方法及装置
JP4624587B2 (ja) 画像生成装置、プログラム及び情報記憶媒体
KR20070030849A (ko) 3차원 이미지를 렌더링하거나 변형하는 모바일 장치 및방법
CN109714585B (zh) 图像传输方法及装置、显示方法及装置、存储介质
JP5896445B2 (ja) 表示装置、表示方法及びプログラム
TW202205851A (zh) 可透光顯示系統及其圖像輸出方法與處理裝置
TW201518994A (zh) 液晶顯示器顯示視角的調整方法、裝置和系統
JP2011191384A (ja) 表示装置
KR101802755B1 (ko) 이동 단말기 및 그 제어방법
WO2012018178A2 (ko) 입체 메인화면이 표시되는 휴대단말기
JP2021180469A (ja) テレビ電話デバイスおよびこれに用いられるテレビ電話ユニット並びにアプリケーションソフトウェア
KR101648453B1 (ko) 휴대용 단말기
TWI523491B (zh) 影像擷取裝置及其三維影像擷取方法
KR101573267B1 (ko) 포장 박스와 전자 표시 기기의 인터랙션 제어 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application